태터데스크 관리자

도움말
닫기
적용하기   첫페이지 만들기

태터데스크 메시지

저장하였습니다.


'커넥티드카'에 해당되는 글 4건

  1. 2017.12.21 VUX in car 4편 - 자동차 음성 인터페이스(AI)의 미래 상상해보기 by 김희웅
  2. 2017.12.18 VUX in car 3편 - 카플레이, 궁극의 드라이빙 파트너일까? by 최규진(Kris)
  3. 2017.12.14 VUX in car 2편 - 기존의 자동차 음성 명령과 자동차 x AI 스피커의 차이점 by KAHYUN.
  4. 2017.12.11 VUX in car 1편 - VUX, 멀티태스킹, 그리고 커넥티드 카 by seyonkim
2017.12.21 07:50

VUX in car 4편 - 자동차 음성 인터페이스(AI)의 미래 상상해보기

미래의 음성 인터페이스(AI)는 어떤 역할을 할 수 있을까?
: 자동차 음성 인터페이스(AI)의 미래 상상해보기



들어가며...

최초의 스마트 스피커인 아마존 알렉사 출시 이후부터 음성인식 스피커의 붐이 일었고, 현재는 어느 정도 정점을 찍은 듯한 시기라는 생각이 듭니다. 이미 음성인식 스피커 시장은 포화 수준을 넘어 과포화 상태이며, 각각 회사에서 출시한 제품들은 저마다의 개성과 강점으로 시장에서 나름의 포지션을 구축하고 있습니다. 그런 상황에서 음성인식에 대한 열기는 스마트 스피커에서 자연스럽게 다른 플랫폼으로 전이되었는데요. 유수의 기업들이 기를 쓰고 공략하고자 하는 다음 플랫폼은 바로 자동차(Automobile)입니다.

실제로 기업들의 투자와 개발로 차량 내의 음성인식 기능은 점차 발전하고 있으며, 머지않은 미래에는 차 안에서 기능 조작을 위해 그 어떤 신체적인 행동을 할 필요가 없어지는 시대가 올 것으로 보입니다. 그야말로 자율 주행, 운전자가 필요 없는, 차 안에는 탑승자만 있는 세상의 문턱 앞에 와있습니다.

애니메이션 사이버포뮬러 자동차 AI 아스라다 : 무언가 다급하게 말하고 있다


기억나시나요? 많은 꼬마들을 자동차광으로 만들어버린 그 만화영화. 네 맞습니다, '신세기 사이버 포뮬러'(한국 방영 제목: 영광의 레이서)입니다. 이번에 자동차 음성인식 프로젝트를 하면서 가장 많이 떠올렸던 만화입니다. 오랜 시간이 지났지만, 다시 봐도 설레게 하네요. 제게 가장 인상 깊었던 부분은 아스라다라는 자동차 AI 캐릭터입니다. 저 동그란 녀석이 음성 AI(아스라다) 인데요. 네 개의 점이 마치 구글 홈이랑 닮아있네요^^. 주인공(드라이버)과 함께 레이싱 트랙 위를 함께 달리면서 끊임없이 소통하고 어려운 상황을 헤쳐나갈 수 있도록 도와줍니다. 아스라다가 등장할 때마다 ‘운전할 때 저런 친구가 옆에 있으면 두렵지 않을 것 같아!’라는 생각을 하곤 했었죠. 지금 봐도 이 캐릭터가 단순히 상상력으로 그려낸 미래의 단상이라고 느껴지지 않을 정도로 꽤나 현실감 있고 개연성이 있다는 생각이 듭니다.

기발한 미래 자동차 시나리오는 이러한 만화영화뿐만 아니라, 영화 혹은 글의 형태로 자동차 전문가 혹은 소설가에 의해 그려져 왔습니다. 저도 이번 글에서 자동차 내부의 음성 인터페이스의 미래에 대해 몇 가지 이야기를 나누어 보고자 합니다. 미래를 상상할 때 두서없이 상상하는 것보다는 과거부터 음성 인터페이스 기술이 어떻게 변화해왔고 그 미래를 어떨지에 대해 순차적으로 얘기하는 것이 더 자연스러울 것 같습니다. 기술이 발전하면서 차 안에서의 음성 인터페이스의 역할은 인간의 편의성을 중심으로 끊임없이 변화를 겪어 왔습니다. 과거의 상상이 현실이 되는 시대에 자동차에서의 인간과 음성 인터페이스 사이의 관계는 다시금 변화를 겪게 될 것이라고 생각합니다. 자동차 음성 인터페이스의 역할은 어떻게 변화할까요?



상상하기 전에...

어떤 대상의 미래를 상상하기 위해서는 대상의 변화를 맥락적으로 살펴볼 필요가 있습니다. 음성 인터페이스에 대한 역사는 꽤 긴 것으로 알고 있지만, 자동차 음성 인터페이스의 역사는 길지 않습니다. 그런데도 이 짧은 시간 동안 일어났던 굵직한 사건들은 짚고 넘어갈 필요가 있습니다. 그 포인트가 되는 부분을 짚어보면서 미래의 자동차 내 음성 인터페이스 이야기를 해보고자 합니다. 제가 생각했던 중요 포인트를 음성 인터페이스의 역사에 대입해보니, 크게 3개의 세대로 구분해 볼 수 있었습니다.

차량내 음성인터페이스의 의존도 변화
(이미지를 클릭하시면 크게 볼 수 있습니다)


1세대. '넌 듣기만 해! 내가 다 알려줄 테니까'

일방향 음성 인터페이스 : 음성 내비게이션

차량에서의 음성 인터페이스는 운전 중 내비게이션으로 길 안내를 받아야 하는 상황에서 주행 상황에 집중하면서 청각으로 경로를 안내받도록 하기 위해 만들어졌습니다.

문헌을 찾아보니 국내 최초의 길 안내 음성 내비게이션은 팅크웨어라는 회사에서 출시한 PDA 기반의 '아이나비320'이라고 합니다. 유명한 성우가 상황에 맞는 음성을 녹음하고, 주행 중에 해당 상황이 벌어질 때마다 녹음된 음성을 제공하는 방식이었죠. 음성 안내 기능이 추가된 내비게이션의 도입은 운전자에게 음성 인터페이스의 편리함을 느끼게 해주었던 중요한 경험이었습니다. 다만, 인간과 기기의 소통이라기보다는 일방적으로 정보를 알려주는 기능에 국한되어 있었죠.

이전에 음성인식 기능이 아예 없었던 것은 아니었습니다. 국내 최초의 음성인식 기능을 탑재한 자동차는 1997년에 출시되었었는데, 그 당시 음성인식 기능은 길 안내를 위한 것이 아니었고 주로 차량 내 기능을 조작하기 위한 것이었습니다. 그러나 높은 가격과 기술적 한계에 부딪혀 시장에서 큰 반향을 이끌지는 못했습니다. 음성인식 기능이 처음엔 신기했지만 인식률이 낮아 실용성이 떨어져서 많은 운전자가 잘 사용하지 않았고, 원하는 정보를 얻기 위해서 화면을 터치로 조작했습니다. 그러나 운전 중 화면 조작은 운전자의 집중력을 떨어뜨리고 자칫 잘못하면 사고로 이어질 수 있기 때문에 이를 보완할 수 있는 음성인식 기능이 필요한 상황이었죠.

결국, 이 시기는 내비게이션이 음성으로 알려주는 정보를 듣는 것에 만족해야 하는 시기였습니다. 음성인식 기능이 존재하긴 했지만 걸음마 단계였던 셈입니다.


2세대. '원하는 정보를 말해봐. 내가 알려줄게'

양방향 음성 인터페이스 : 인식 기술이 향상된 음성인식 스마트 스피커 출시 그 후

음성기술의 발전은 대중이 느끼지 못할 만큼 천천히 그러나 꾸준히 이루어져 왔습니다. 그러다가 최근에 음성 인터페이스 시장에 큰 획을 그은 사건이 벌어졌는데요, 바로 스마트 스피커의 출현입니다. 스마트 스피커는 사람들에게 음성 인터페이스의 편리함을 어필하면서 엄청난 붐을 일으켰습니다. 아마존 에코를 필두로 다양한 매력을 지닌 스마트 스피커가 시장에 출시되었죠. 이런 고도화된 음성인식기술을 지닌 디바이스의 출현을 가장 반겼던 플랫폼은 바로 자동차였습니다. 음성 인터페이스의 가장 큰 매력은 멀티태스킹인데, 주행 중인 운전자에게 다른 기능을 안전하게 조작할 수 있는 수단은 필요한 정도가 아니라 필수인 셈이었죠.

여러 스마트 스피커가 모바일 연동, 소형 디바이스 거치 등의 다양한 방법으로 자동차 내부로 침투하고 있습니다. 그러면서 차량 내에서의 음성 인식률뿐 아니라 조작 가능한 기능의 범위도 발전했습니다. 차량 내 인포테인먼트 요소인 디스플레이와 오디오 미디어를 음성으로 제어하는 것은 물론이고 음성인식 기능의 초창기에 구현하고자 했던 차량 내 기능(공조, 주유 알림 등)도 수준급으로 조작이 가능해졌으니까요.

NUGU X T-map 음성인식


위와 같은 서비스는 완성형의 중간 단계 정도라고 생각하는데요. 머지않아 외장형 혹은 모바일을 통한 음성인식 기능 제공 형태를 넘어 차량 내부 매립 방식의 고성능 음성인식 기능을 탑재한 AVN이 나올 것으로 보입니다.

현재의 음성 인터페이스에 대한 우리의 의존도는 아주 높습니다. 아직은 자율 주행이 상용화되지 않은 단계이기 때문에 향후 몇 년간은 인간이 운전을 해야 하는 상황일 테고, 그렇기 때문에 음성 인터페이스의 중요도가 크게 주목받는다고 할 수 있죠.


3세대. ‘좀 더 깊은 대화가 필요해'

음성 인터페이스를 넘어 스스로 생각하고 결정하는 음성 AI

가까운 미래에는 스마트 스피커 같은 단순한 묻고 답하기의 양방향 소통보다 더욱 발전한 인터랙션 방식이 등장할 것 같습니다. 저는 이러한 미래의 음성 인터페이스를 2가지 관점으로 설명해보고자 합니다.

일단 염두에 두어야 할 것이 있습니다. 다가올 음성인식 기술의 정점에는 AI가 있을 것 같은데요, 그 시대가 오면 음성 인터페이스라고 하는 것은 의미가 없을 것 같습니다. 왜냐하면 대화를 하는 주체는 AI와 인간이고, 음성 인터페이스는 두 대상이 의사소통하는 하나의 수단이 될 테니까요. 미래의 이야기를 하는 이 시점부터는 ‘음성 인터페이스'보다는 ‘AI'에 중점을 두면서 이야기를 진행해보고자 합니다.

(1) 운전자의 역할 변화를 가져올 완전 자율 주행

Tesla의 반자율 주행기술 구현으로 운전대가 없는 자동차 시대가 눈앞으로 다가왔습니다. 자율 주행으로 운전자가 더 이상 운전할 필요가 없어지면 운전자의 역할이 차량에 탑승한 다른 동승자와 다를 게 없어질 것입니다. 그렇게 되면 운전자가 운전 중의 안전을 확보함과 동시에 다른 기능을 조작하기 위해 사용했던 음성 인터페이스에 대한 의존도가 낮아질 것으로 보입니다. 이러한 변화가 다소 부정적으로 들릴 수도 있겠지만 꼭 그렇지마는 않습니다. 음성 인터페이스에 대한 의존도가 낮아졌다는 것은 다른 인터페이스에 대해 자유롭게 조작이 가능하다는 것이고, 다른 인터랙션 수단을 통해 사용자 의도를 보다 효과적으로 전달할 수 있을 테니까요.

어쩌면 결국 음성 인터페이스를 사용하는 자동차 내부 환경과 역할은 집에서 쓰는 스마트 스피커 사용 환경과 비슷해질 것 같네요.

차량 내 사용자 역할 변화 다이어그램


(2) 기능 수행을 넘어서 감정 공유 소통까지

현재 기술의 발전 속도를 고려해보았을 때, 음성인식 기능은 차량 내부에서 수행할 수 있는 모든 태스크에 대한 조작을 가능하게끔 해줄 것으로 보입니다. 가능한 기술 구현 범위 또한 확장되는 것은 물론이겠죠. 이 모든 것이 이루어진다면 음성 인터페이스(AI)에게는 어떤 역할을 기대할 수 있을까요?

자동차 분야의 전문가가 아니어서 '어떤 신기술이 탑재될 것이다.’라는 확고한 전망을 하기에는 조심스러운 측면이 있지만 현재 구현된 기술들, 여러 미래 전문가들의 연구 동향을 참고하여 나름대로 유추해보자면 저는 차량 내에서 감정을 소통할 수 있는 기능이 제공될 것 같습니다. 음성인식에 대한 이슈가 있기 전부터 인간은 인간이 아닌 대상과의 감정 공유에 대한 니즈를 갖고 있었습니다. 그러한 관심은 기술이 발전하면서 일상생활에서 만나볼 수 있게 되었습니다.

(좌) 사람형상과 차이가 있지만, 인간의 소통 방식과 닮아 있는 jibo(2014)
(우) 동작을 통해 인간과 N가지 정신적 교감이 가능한 SONY사의 강아지 로봇 Aibo(2017)


위 이미지에 언급된 사례들의 인터랙션 요소(디스플레이, 움직임 등)는 감정을 주고받는다는 느낌이 들기에 충분한 수준이었습니다. 이러한 트렌드는 스마트 스피커가 차량 내부로 유입되었던 것처럼 비슷한 순서를 밟게 될 것 같은데요.

비록 상상이었지만, 글 서두에 언급했던 ‘아스라다'라는 AI 캐릭터는 인공지능 로봇이 정착된 사례로 제가 전망하는 미래와 잘 부합하는 캐릭터입니다. 만화를 보는 내내 가장 혁신적이고 신선했다고 느꼈던 포인트였죠. 그 당시에도 ‘너무 좋은데… 저게 될까?’라는 의구심이 들었던 기억이 나는데요, 이러한 만화적 상상을 현실화시키려는 흥미로운 시도들을 발견했습니다.


(좌) 차량내부에서 감정을 표현하는 다양한 동작 제공이 가능한 MIT SENSEable City Lab의 AIDA(2009)
(우) 귀여운 인터랙션 방식과 주행 보조기능을 제공하는 Nissan사의 감성주행 도우미 Pivo2(2007)


저는 이런 시도가 참 신선하다고 느꼈습니다. 저 둘이 움직이는 것을 동영상으로 보며, 정말 심쿵하지 않을 수 없었습니다. 너무 귀여웠거든요. 어떤 부분에서 그렇게 느꼈는지 명확히 설명할 수는 없지만, 분명한 것은 감정을 주고받는 느낌이 들었습니다. 특히 혼자 자동차에 탑승해 있는 경우라면 화면 인터랙션과 음성 인터랙션을 함께 제공하면서 그것을 토대로 감정을 공유할 수 있는 매체가 있다는 것은, 자칫 지루할 수 있는 자동차 내부 환경을 바꿔줄 수 있겠다고 생각했습니다. 저 친구들과 함께한다면 운전이 너무나도 즐거울 것만 같습니다. 물론 어떤 사용자들은 ‘나는 그렇게 AI와 대화하는 것보다 그냥 TV를 보는 게 훨씬 나아'라고 말할 수도 있겠습니다. 그건 사용자의 선택 문제겠죠. 저라면 졸리거나 심심할 때 대화할 수 있는 상대가 있으면 좋겠다는 생각이 드네요. 비록 개념 수준의 연구였으며 제가 가정했던 미래 시나리오(저의 가설과는 다르게 사진에는 운전대와 운전석이 있네요.)와는 조금 차이가 있습니다만, 아주 흥미로웠던 연구라고 생각합니다.

자율 주행으로 인한 운전자의 역할 변화 그리고 기능을 수행을 넘어선 감정 소통에 대한 이슈는 결국 하나의 흐름으로 진행될 것 같습니다. 그것은 '차 안에서 어떻게 시간을 보낼 것인가?'에 대한 이슈일 것 같은데요. 움직이는 공간에서 오랜 시간을 있어야 한다면 쾌적한 환경과 흥미 요소의 제공은 운전자에게 있어 필수불가결한 요소입니다. 따라서 이제 운전자가 해야 할 고민은 '어떻게 안전하게 운전할 수 있지?'에 대한 고민에서 이제는 '차에서 뭐 하지?', '어떻게 놀까?', '자동차에서 효과적으로 일을 하기 위해서는 어떤 환경이 되어야 할까?' 등에 대한 고민으로 더욱 심화될 것 같습니다. 그렇게 되면 사람들의 니즈를 충족시켜 주기 위해 자동차 내부 인테리어나 효과적인 콘텐츠 제공을 위한 미디어 제공 기술이 자동차 산업의 새로운 먹거리로 부상하게 될 것입니다.



마치며...

2013년 2월, 바르셀로나에서 열린 Mobile World Congress에서 Audi는 자사의 모델을 광고하면서 '자동차는 가장 큰 스마트폰(Car : The world’s biggest smartphone)’이라는 캐치프레이즈를 사용했습니다. 자동차도 스마트폰처럼 여러 가지 기능들이 탑재된 거대한 디바이스가 될 것이라는 의미로 해석할 수 있는데요. 벌써 4년 전의 일이라 이제는 자동차를 스마트폰에 빗대어 묘사하는 것은 부족하다는 느낌이 듭니다. 아마도 현재의 음성인식 기술이 수준급으로 발전하였고 플랫폼으로서의 자동차의 위상 또한 눈에 띄게 높아졌기 때문인 것 같습니다. 스마트폰의 기능도 고도화되었지만, 첨단 기술의 집약체인 자동차 분야가 IT 기술과의 접목으로 갖게 된 확장성은 어마어마하게 넓은 영역을 점유할 수 있을 것으로 기대됩니다. 제가 최근 읽었던 '넥스트 모바일 : 자율 주행 혁명’이라는 책에서 저자가 말한 '자동차가 아니다. 바퀴 달린 로봇이 세상을 뒤흔들 것이다.’라는 예측처럼, 자동차의 개념은 단순한 Vehicle을 넘어 Robot을 향해 달려가고 있습니다.

더 많은 자료와 데이터를 토대로 제 상상에 대한 개연성을 높여보고자 했는데, 도움이 될 만한 글이었는지 걱정스럽습니다. 글을 읽은 혹자는 ‘전문가도 아니면서 이런 글을 써도 되나?’라고 의문을 품을지도 모릅니다. 맞습니다. 저의 짧은 식견으로 미래를 예측해보기에는 상당히 어려운 부분이 많았습니다. 미래학자 엘빈 토플러의 명언 '미래는 예측하는 것이 아니고 상상하는 것이다.’라는 말처럼 이러한 예측은 어디까지나 상상일 뿐입니다. 내일이 어떻게 될지도 모르는 상황에서 몇 년 뒤를 내다본다는 것은 어리석은 일이라고 생각할 수도 있죠. 하지만 이렇게 미래를 예상해보는 게 의미 없는 일은 아닙니다. 미래를 대비하고 준비하는 만큼 기회를 엿볼 수 있으니까요. 전문 기업 수준의 미래 예측 시나리오 정도는 아니지만, 독자들이 이 글을 읽고 자동차의 미래를 상상하는 데 조금이나마 도움이 되었기를 바랍니다.



[참고##음성인식##]



팀블로그 pxd Story 구독 방법  블로그 글은 각 개인의 생각이며 피엑스디와 다를 수 있습니다.


Trackback 0 Comment 0
Ad Test...
2017.12.18 07:50

VUX in car 3편 - 카플레이, 궁극의 드라이빙 파트너일까?

본론에 앞서...

긴 추석 연휴가 끝난 후, 인턴사원으로 pxd의 일원이 되었습니다. 당시 설레는 마음을 가득 안고 행복하게 프로젝트팀에 합류한 저에게 조금은 당황스러운 미션이 주어졌습니다. 프로젝트와 관련하여 차량을 운전하고, 주행 중에 카플레이를 사용해 보는 것이었습니다. 평소 자동차에 관심은 많았지만, 차량 브랜드에 관한 기호와 흥미였을 뿐 자동차에 대한 전문지식은 깊지 못했던 터라 조금은 당황했었고, 더불어 운전 실력마저 그렇게 능숙하지 못했던 필자이기에 꽤나 긴장했던 것 같습니다. 그래도 '남자가 칼을 뽑았으면 무라도 썰어야지' 하는 생각으로 운전대를 잡았고, 함께 탄 팀원들 덕분에 즐거운 분위기 속에서 현장 리서치를 무사히 마칠 수 있었습니다.

이제 그 현장 경험을 바탕으로 애플의 차량 인포테인먼트 시스템인 카플레이가 이 글의 제목처럼 궁극의 드라이빙 파트너가 맞는지에 대해 이야기해 보고자 합니다.



손쉽고 빠른 연결

아이폰 상에서 별도의 앱을 설치할 필요가 없이, 이를 지원하는 차량이라면 손쉽게 아이폰과 연결하여 카플레이를 이용할 수 있습니다. (물론, 아이폰5와 그 이후 출시된 아이폰에서만 카플레이를 이용할 수 있습니다.) 이를 위해 우선 아이폰의 설정 > 일반설정 메뉴에서 카플레이를 활성화하고, USB 케이블을 이용하여 유선으로 차량과 연결하면 됩니다. 블루투스를 통한 연결을 지원하는 차량도 점차 늘어나고 있으니 무선 연결에 대한 부분도 기대해 볼 만한 이슈입니다. ('톰스 가이드'에 따르면 2017년 BMW 5시리즈가 처음으로 카플레이 무선 연결을 지원한 차량이라고 합니다.)


차량과 아이폰의 연결을 통한 카플레이 실행 (출처: arstechnica.com)


아이폰과 연결이 되면, 차량 중앙 화면에 카플레이 홈 화면이 나타나며, 아이폰에서도 차량과 연결되었음을 확인할 수 있습니다. 카플레이의 홈 화면에는 친숙한 아이폰 안의 앱들이 등장합니다. 하지만 카플레이의 경우 주행이라는 context에 알맞게 UI가 큼직하게 디자인되어 있습니다. 예를 들면, 물리적으로 아이폰보다 넓은 카플레이의 홈 화면은 8개의 커다란 크기의 아이콘을 담을 수 있는데, 이는 주행 환경에서 사용자가 잘못 선택할 확률을 줄여줍니다. (아이폰과 비교하자면, 아이폰X의 경우 한 화면에 28개의 앱을 보여줄 수 있습니다.)

차량과 아이폰의 연결 후에도 홈버튼을 눌러 아이폰을 이용할 수 있습니다. 카플레이의 기본적인 동작 방식은 미러링과 같아서 아이폰에서 이루어지는 대부분의 태스크가 카플레이 환경에 그대로 이어져 실행되거나 중지되기 때문에 선택적인 제어가 필요합니다. 다만, 주행 중에 휴대폰을 탐색하는 것은 바람직한 운전자의 행동이 아닐뿐더러, 도로 교통법에 저촉되어 6만 원 이상의 범칙금과 15점의 벌점을 받을 수 있으니 유의해야 합니다.



말 잘 알아듣는 시리 x 카플레이

기본적으로 주행 환경을 고려한 카플레이는 시리를 앞세워 음성 인터랙션을 주요 채널로 가져갑니다. 시리를 통해서 기능을 실행하는 방법은 간단합니다. 물리버튼(운전대의 물리버튼/차량 화면 또는 모바일 화면의 홈버튼 롱프레스)을 누르거나 모바일처럼 "시리야"로 시리를 호출하고, 음성인식 스탠바이를 알리는 사운드 피드백이 나오면 원하는 태스크에 대한 음성명령을 입력하면 됩니다. 사용자의 음성을 인식한 시리는 인식 완료에 대한 사운드 피드백을 주고 명령에 대한 음성 피드백과 같이 해당 태스크를 실행하게 됩니다. 이 과정은 차량 내의 화면을 통해서도 확인할 수 있습니다.


시리가 활성화된 카플레이 (출처: gearbrain.com)


카플레이의 시리는 모바일 환경의 시리와 많이 다르진 않습니다. 다만, 시각적인 정보들을 잘 활용해서 전달하는 아이폰의 시리와는 달리 카플레이의 시리는 최대한 음성 채널로 결과를 제공하려 노력합니다. 그 이유에는 주행 상황과 관련이 깊습니다. 주행 중에 차량에 설치된 화면을 주시하거나 직접 터치하는 것은 운전 부주의로 이어져 사고가 나는 위험천만한 행동이 될 수 있기 때문입니다.

카플레이에서는 시리가 제공하는 음성 서비스의 예로 수신된 SMS를 읽어준다거나, 통화를 걸 때 수신자의 정보를 읽어주는 것들을 들 수 있습니다. 카플레이와 시리의 이러한 기능에 대해서는 다음 장에 자세히 다루어 보고자 합니다.



카플레이 속 다양한 서비스 기능들

카플레이가 제공하는 기능은 크게 내비게이션, 커뮤니케이션, 엔터테인먼트 등으로 나눌 수 있습니다.

카플레이 홈화면 (출처: gearbrain.com)


카플레이의 앱 구성은 연결하는 사용자의 아이폰에 설치된 앱의 유무와 종류에 따라서 달라집니다. 기본적으로 지도 앱을 통해 내비게이션 기능을 제공하고, 전화/SMS 앱을 통해 다른 사람들과 연결해주며, 음악/팟캐스트/라디오 앱을 통해 미디어를 소비할 수 있도록 도와줍니다. 다만 카플레이는 사용자의 모든 아이폰 속 앱을 지원하지 않습니다. 카플레이는 주행 중 시선을 고려해 오디오 청취를 목적으로 하는 꼭 필요한 앱들만을 제공합니다. 따라서 필요에 의한 작업은 연결된 아이폰을 통해서 이용해야 할 필요가 있습니다.


내비게이션 기능

애플의 지도 앱을 기반으로 내비게이션은 생각보다 잘 작동하는 편입니다. (사실 잘 안될 것으로 예상했습니다.) 목적지를 검색하고 안내를 설정하면 차량 중앙 화면에 목적지까지 최적화된 경로가 나타나며 음성 안내를 시작합니다. 내비게이션이 아닌 다른 기능을 실행 중이더라도 화면 상단의 토스트 팝업과 음성으로 경로 안내를 받을 수 있습니다.


내비게이션 기능 음성과 TTS 시나리오


하지만 카플레이의 내비게이션은 기존의 타 내비게이션 서비스(e.g. 티맵, 카카오 내비 등)에 비하면 치명적인 단점이 있습니다. 사람들이 자동차 내비게이션을 사용하는 데에 있어서 가장 중요하게 생각하는 사항은 다음과 같습니다.


1. 얼마나 정확하고 신속하게 최단 경로를 탐색하고 안내하는가?

2. 실시간 교통상황을 반영하여 사용자에게 잘 제공하는가?


카플레이의 내비게이션 서비스는 위의 2번째 사항은 제공하지 않습니다. 또한 과속카메라 안내와 과속 방지턱 안내, 차선 안내와 같은 세부적인 사항들도 빠져있습니다. 따라서 이미 이러한 정보들이 담겨있는 내비게이션에 익숙해진 한국 사용자들에게 좋은 이용 경험을 선사하기에는 힘들어 보입니다. 한국을 방문하는 외국인들의 경우에는 익숙한 애플의 인터페이스로 길 안내를 받으며 사용할 것 같은 느낌일 것 같습니다.


통화 기능

통화 기능은 두 손을 자유롭게 움직일 수 없는 주행 상황에서 필요한 기능 중 하나입니다. 이미 타 차량 브랜드에서도 블루투스 연결을 통해서 제공되고 있는 부분(e.g. 차량 내 Hand-free 음성인식 통화 서비스)이지만 카플레이의 통화 기능은 시리를 통해서 보다 빠르고 주행에 최적화된 경험을 제공합니다.

통화 수신의 경우에는 운전대의 물리 버튼을 누르거나 화면상의 통화 버튼을 누르면 바로 통화가 연결됩니다. (통화 수신음이 울릴 경우 "전화 받아줘" 와 같은 음성 제어는 불가능합니다)

통화 발신의 경우에는 연락하고자 하는 대상자를 탐색, 선정, 발신 3단계를 거치게 됩니다. 물론 화면을 선택해서 연락처를 탐색하고 누르는 것도 가능하지만, 주행 상황을 방해받지 않으며(화면을 보지 않고도) "OOO에게 전화 걸어줘"와 같이 음성 제어로 전화를 걸 수 있습니다.


통화 기능 음성과 TTS 시나리오


위와 같이 일반적인 통화 발신의 상황도 있지만 예외의 상황도 종종 발생하곤 합니다.

시리가 잘못된 연락처 명을 인식할 수도 있고, 사용자의 아이폰 연락처 상의 동명이인 또는 비슷한 이름에 대한 다수의 연락처 검색 결과가 나올 수 있습니다. 이 경우, 시리가 발신 요청한 연락처를 재확인하거나 다수의 검색 결과들을 읽어주고 화면으로 나타내면서 사용자가 유연하게 대처할 수 있도록 돕습니다. 그럼에도 사용자는 자칫 잘못된 통화 연결을 실행할 수도 있기 때문에 신중하게 검색 결과를 확인하고 선택하거나 사전에 미리 아이폰 속 연락처명을 명확하게 저장해 둘 필요가 있습니다. 가령, '김민수'라는 동명이인들을 똑같은 '김민수'로 연락처에 저장해두었고 카플레이에서 해당 인물에게 발신하게 된다면 곤란한 상황에 직면하게 될 것은 불 보듯 뻔합니다.


SMS 기능

카플레이의 SMS 기능은 차량 주행 환경에 최적화된 기능 중 하나입니다. 앞서 잠깐 언급한 바와 같이 화면으로 메시지를 확인하고 작성하는 것은 불가능하고 시리와의 음성 인터랙션으로 거의 모든 태스크를 수행하여야 합니다. 기존의 아이폰의 시리를 통해서 SMS를 수신 확인하고 답신했던 경험이 있는 사용자라면 보다 수월하게 이용이 가능합니다.

SMS를 수신하는 경우에는 "메시지 확인해줘" 또는 "문자 읽어줘"와 같은 음성명령으로 실행할 수 있으며, 친절하게도 시리는 가장 오래된 수신 문자 순으로 날짜, 발신자, SMS 전문을 순차적으로 읽어줍니다. 만약 특정 대상에 대한 수신 문자만 확인하고 싶은 경우에는 "OOO에게 온 문자 읽어줘" 와 같이 명령하면 됩니다. 종종 장문의 광고성 문자의 전문을 그대로 읽어 당황스럽게 만드는 경우도 있지만, 다음 명령을 입력하거나 중단시키면 그만입니다.


SMS 수신/답신 기능 음성과 TTS 시나리오


SMS를 새로 작성하거나 발송하는 경우도 위와 같은 맥락으로 "(특정 대상) 메시지 작성"처럼 음성명령을 넣으면 됩니다.

아쉽게도 카카오톡 등 메신저 앱들은 카플레이에서 지원하지 않습니다. 가까운 미래에 카플레이 역시 카카오톡을 지원하게 된다면, 마치 '카카오 미니'에서의 경험을 차 안으로 그대로 가져올 수 있지 않을까 싶습니다. (카카오에서 출시한 AI 스피커 '카카오 미니'의 경우 음성으로 카카오톡 메시지를 수신하고 작성하는 것이 가능합니다.)


엔터테인먼트 기능 (오디오앱)

사용자가 아이폰에서 추가했던 미디어 콘텐츠들 역시 카플레이 환경에서 그대로 실행할 수 있습니다. 'iTunes'를 통해 아이폰의 음악 보관함에 풍부한 음악을 채워 놓은 사용자라면 꽤나 유용하게 사용이 가능합니다. 시리를 통해서 기능들을 실행시키거나 콘텐츠를 선택하고 제어하는 것 역시 가능합니다. 또한 카플레이에서는 '지금 재생 중(Now Playing)'이라는 별도의 앱을 통해서 현재 사용 중인 오디오 콘텐츠로의 진입을 빠르게 도와줍니다.

앞서 말한 바와 같이 카플레이는 주로 오디오 청취를 목적으로 하는 3rd-Party 앱들을 제공합니다. 대표적으로 팟캐스트와 라디오 앱이 있습니다.

음악 및 미디어콘텐츠 기능 음성과 TTS 시나리오


멜론과 벅스, 네이버 뮤직 등 음악 스트리밍 앱의 경우도 카플레이 환경에서 실행할 수 있습니다. 다만 이와 같은 앱들은 각각의 음악 콘텐츠들을 음성으로 제어하는 것은 불가능하고 화면을 통해 콘텐츠를 제어해야 한다는 단점이 있습니다.



글을 마치며...

제가 사용한 카플레이는 주행 환경과 안전을 고려한 비교적 나쁘지 않은 사용 경험을 제공했습니다. 저와 같이 운전에 미숙한 사람도 원활하게 이용할 수 있도록 음성인식 서비스인 시리를 지원하는 것이 큰 이점이었습니다. 화면을 보지 않고 음성 안내를 받으며 기능들을 실행&제어할 수 있었기에 더욱 운전에 집중할 수 있었고 마치 비서가 옆에서 대신 기능들을 수행하는 기분까지 들게 해주었습니다. 또 차량 내의 소음이 있을 때도 저의 음성을 잘 인식하고 해당 기능들을 수행해주었습니다.

그러나 궁극의 드라이빙 파트너가 되기에는 부족하다고 느꼈습니다. 원하는 모든 기능들을 완벽하게 지원하지는 못할 것이라 예상은 했지만 불가능한 기능들이 생각보다 많았습니다. 내 아이폰에 설치된 앱의 수는 100개가 넘지만 카플레이에서는 '멜론'을 포함한 고작 몇 개의 3rd-Party 앱만이 모습을 드러냈던 것도 아쉬운 점 중 하나였습니다. 시리의 음성인식 기능 역시 오류 상황들을 보여주는 경우가 있었고, 알아들을 수 있는 명령어의 수가 제한적이어서 오히려 기능 수행에 대한 명령어를 학습해야 할 필요성까지 느끼게 해주었습니다. 아직 한국어 지원이 부족한 것인지 "이전", "다음", "꺼줘", "경로 안내해줘" 등과 같은 기본적인 명령어도 인지하지 못한다는 점은 조금 실망스러웠습니다. 알고 쓰면 유용한 드라이빙 파트너가 적절한 표현이지 않을까 합니다.

많은 타사의 서비스를 사용해보지 못했기에 다른 서비스들과 좀 더 면밀하게 비교 분석하진 못해서 아쉬웠습니다. 다만, 이 글을 통해 독자들이 애플의 카플레이에 조금 더 친숙해질 수 있는 계기가 되길 바랍니다. 시장의 판도는 급변하고 있습니다. 구글의 안드로이드 오토는 물론 네이버의 어웨이, 신형 제네시스에 탑재되는 카카오 아이, 티맵 등 다양한 음성인식 기반의 차량 인포테인먼트 서비스가 하루가 멀다 하고 출시되고 상용화에 도전 중입니다. 카플레이 역시 지속적인 업데이트를 통해 개선되고 있습니다. 3rd-Party 애플리케이션의 증가, 음성 인식률에 대한 이슈는 시간이 문제라고 생각했습니다. 분명한 건 다가오는 스마트 시대에는 운전자 중심의 맞춤 서비스를 제공하는 커넥티드카를 넘어 자율 주행 자동차의 시대가 올 것이고, 그 스마트카의 중심에서 시리와 카플레이가 중요한 Hub 역할을 수행하게 될 것이라고 기대해봅니다.




[참고##음성인식##]



팀블로그 pxd Story 구독 방법  블로그 글은 각 개인의 생각이며 피엑스디와 다를 수 있습니다.


Trackback 0 Comment 0
Ad Test...
2017.12.14 07:50

VUX in car 2편 - 기존의 자동차 음성 명령과 자동차 x AI 스피커의 차이점


올해 하반기 출시된 제네시스 G70에 카카오 I가 장착되어 집에서 사용하던 AI 스피커를 자동차에서도 사용할 수 있게 되었습니다. 모터쇼에서 NUGU, Giga Genie를 결합한 컨셉 자동차를 발표했으니 곧 기아, 현대 자동차에서도 AI 스피커를 사용할 수 있을 텐데요. 유투브에서 NUGU mini나 Amazon dot과 같이 서브 라인으로 출시한 AI 스피커를 자동차에서 시연하는 영상을 심심치 않게 볼 수 있는걸 보면 자동차와 AI 스피커의 결합은 이미 스마트 스피커가 나타날 때부터 시간문제였던 것 같습니다.

자동차에서 AI 스피커를 이용해 음악을 재생하거나 뉴스를 듣는 행동은, 이미 사용하고 있는 음성 인식 기능과 크게 다르지 않아 보이기 때문에 AI 스피커가 힘들게 장착해서 쓸 만큼 유용한 것인지 의문이 들곤 했습니다. 그럼에도 자동차에 결합된 스마트 스피커 시장이 활발한 이유는 무엇일까요? 이번 블로깅에서는 자동차가 AI 스마트 스피커 기능을 장착하면 기존의 자동차 음성 인식 경험과 무엇이 달라지는지 이야기해보려 합니다.



자동차의 음성 명령

자동차의 기능을 편리하게 호출하는 기능

자동차를 운전한 경험이 있다면 핸들에 있는 ‘’ 버튼을 본 적 있을 것입니다. 자동차에서 제공하는 Voice command 기능을 호출하는 버튼입니다. Voice command 기능은 운전할 때 자동차와 연결된 기기나 기능들을 음성으로 호출할 수 있는 기능입니다. 버튼을 누르고 음성으로 라디오 주파수를 이야기하면 라디오를 틀어주고, 내비게이션을 켠 상태에서 목적지를 말하면 목적지를 검색할 수 있습니다. 스마트폰을 연결하면 통화를 하거나 음악을 들을 수 있습니다.

자동차와 관련된 기능을 음성으로 편리하게 사용할 수 있지만, 자동차와 연결된 기능만 사용할 수 있는 단점이 있습니다. 즉, 통화 등 스마트폰과 관련된 기능을 사용하려면 스마트폰을 연결하는 셋팅 과정을 거쳐야 사용할 수 있습니다.


화면의 터치 인터랙션을 대신하는 보조 기능

운전을 하면서 내비게이션의 목적지를 터치하는 행동은 운전 베테랑이라도 시선을 뺏기게 됩니다. 안전을 위해 잠깐 차량을 정차하게 되는 신호 대기 순간에 목적지를 한 글자씩 입력하게 되기 때문입니다. 이런 상황을 개선하고자 내비게이션은 음성 지원 검색을 지원합니다. “신사주유소”를 찾을 때, ‘ㅅㅅㅈㅇㅅ’ ‘신사주유소’ 라 입력하지 않고 음성으로 “신사주유소”를 말하면 목적지가 입력 영역에 표시됩니다.

목적지를 입력하는 방법을 음성으로 대신할 뿐, 목적지를 설정하는 과정은 터치 인터랙션과 동일합니다. 음성 인식 버튼을 누른 뒤 목적지를 말하고 화면에서 ‘검색’을 누르거나, 다시 음성 인식 버튼을 눌러 “검색”이라고 말해야 합니다. 만약 평소 말하는 대로 “신사주유소 찾아줘” / “신사주유소로 설정해줘”라고 말하게 된다면 목적지 입력 영역에 “신사주유소 찾아줘 / 설정해줘”가 모두 입력됩니다.

또, 음성으로 목적지를 설정하는 기능은 내비게이션이 실행된 상태에서 목적지를 설정하는 과정의 화면에서만 사용할 수 있습니다. 음성 인터랙션은 주행 안전을 위해 터치 인터랙션 대신 사용하는 보조 기능으로서 제공됩니다.


음성 명령을 하려면 어떤 버튼이 음성 명령이 되는지 말풍선 모양을 확인해야 합니다.

출처: Hyundai: Voice command



자동차 환경에서의 AI 스피커 음성 경험

자동차의 기존 음성 명령이 화면을 보조하는 수단으로 제공된다면, AI 스피커는 진짜 음성 중심의 경험을 제공합니다.

복잡한 연결 과정 없이 즐기는 확장된 음성 서비스

자동차에서 음성 명령 기능을 사용하기 어려운 이유 중 하나가 복잡한 연결 과정 때문인데요. LTE 기반의 AI 스피커를 장착하면 복잡한 연결 과정 없이 ‘Voice command’ 버튼만 눌러서 바로 음성 명령을 사용할 수 있습니다.

또, AI 스피커 덕분에 기존의 자동차와 스마트폰에 국한되었던 기능에서 벗어나 더욱 다양한 음성 서비스를 즐길 수 있습니다. 집에서 듣던 플레이리스트를 그대로 들을 수 있고, 앞으로 30분 뒤 도착 시각에 맞추어 피자를 주문할 수 있습니다. Iot 미래 시나리오 워크샵의 단골손님이었던 도착 시각에 맞춰 집 안의 환경을 세팅하는 과정을 경험할 수 있습니다.


화면을 벗어난 음성 중심 인터랙션

기존의 음성 경험과 가장 큰 차이점은 주행 안전을 방해하던 화면에서 벗어날 수 있는 점입니다. 앞에서 언급한 것처럼 기존의 음성 경험은 화면 내의 조작을 편리하게 하는 음성 인터랙션에 머물러 있었습니다. 화면으로 분산되는 시선을 주행에 집중하기 위해 음성 명령을 사용한 것임에도 결국 화면을 보면서 음성 조작을 하는 모순적인 상황이 발생했습니다.

반면, AI 스피커를 이용한 음성 명령은 실제 사람과 대화하는 방식으로 음성 인터랙션이 이루어져 화면을 훨씬 덜 볼 수 있습니다. 예를 들면 AI 스피커에게 목적지 검색 요청 시, “신사주유소 찾아줘”라고 말하면 AI 스피커는 바로 목적지 검색을 수행합니다. 목적지를 검색하기 위해 화면의 ‘검색’ 버튼을 찾거나 다시 voice command 버튼을 눌러 “검색”이라고 말할 필요가 없게 됩니다.


결론: 음성 명령이 아닌 음성 대화

기존의 voice command 기능을 보면 사용자는 “신사주유소” / “검색” / “음악 재생” 등 명사 위주로 자동차에 명령합니다. Task 수행 단계 내에서 음성 인터랙션이 있기 때문인데요. 앞에서도 보았듯이 AI 스피커의 음성 인터랙션은 Task 수행 단계 없이 바로 기능 수행이 가능합니다. 그래서 “신사주유소 검색해줘” / “소녀시대 노래 틀어줘” 등의 명령이 가능한 것인데요. 아직 자동차에 장착된 AI 스피커를 보면 명령 -> 대화로 이동하는 과도기에 있는 것 같습니다. 미래의 자동차는 결국 화면 도움 없이도 만족스러운 음성 인터랙션 경험을 제공해야 할 것입니다.




[참고##음성인식##]

팀블로그 pxd Story 구독 방법  블로그 글은 각 개인의 생각이며 피엑스디와 다를 수 있습니다.


Trackback 0 Comment 0
Ad Test...
2017.12.11 07:50

VUX in car 1편 - VUX, 멀티태스킹, 그리고 커넥티드 카

음성 UX에 적합한 시나리오는 무엇일까

최근 음성인식 솔루션의 춘추전국시대라고 해도 과언이 아닐 정도로 다양한 서비스가 쏟아져 나오고 있습니다. 2011년 애플이 아이폰 4S와 함께 시리를 발표한 이후 음성 비서에 대한 인식이 대중적으로 자리 잡게 되었는데요. 이후 아마존의 Alexa, 국내에서는 SKT의 NUGU를 필두로 물리적인 형태를 갖춘 스마트스피커 시장이 활발해지면서 음성 비서에 대한 서비스 제공자들의 고민이 더욱 다양해지는 것 같습니다. 스마트스피커 시장에서는 아마존의 경우 커머스, 라인의 경우 정보검색 및 캐릭터(?) 등 각 기업이 보유한 특화 서비스를 강조한 제품을 선보이고 있으나, 아직 이전 대비 음성 UX의 경험을 차별화한 서비스는 없다고 느껴집니다. 저는 회사에서 음성 UX와 관련된 몇 번의 프로젝트를 거치면서, 아래와 같은 의문을 지울 수 없었습니다.


'말로 하는 것이 한 번의 터치 조작보다 과연 얼마나 쉬울까?'

'화면을 보면 한 번에 알게 될 내용을 음성 안내로 들어야 한다면 답답하지 않을까?'



아직은 터치 조작에 익숙한 현대인으로서 새로운 조작 방식을 접하게 되어 생기는 당연한 고민일지도 모르겠습니다. 그러나 음성만을 사용하다 처음으로 화면을 선보인 에코 쇼를 보면 스마트스피커의 선두 주자인 아마존도 비슷한 고민을 하는 것 같습니다.

이러한 고민의 답을 찾기 위해서는 음성 인터랙션의 context와 contents, 두 가지 방향의 접근이 필요합니다. 장소, 환경 등의 맥락(context)으로 인해 음성 인터랙션을 사용하기에 적합한 상황이 있고, 음성으로 사용할 때 더욱 효과적인 태스크나 콘텐츠(contents)가 있을 것입니다. 현재 음성 서비스의 제공자들은 기술적 관점에서 제공 가능한 서비스를 다양하게 붙여 보는 방식을 취하고 있지만, 결국 사용자가 음성 인터랙션에 흥미를 잃지 않고 적극적으로 활용하기 위해서는 가장 적합한 시나리오를 제공해야 한다고 생각합니다. 이 글에서는 먼저 context의 관점에서 접근해 보려고 합니다. 음성을 사용해서 조작할 때 가장 효과적인 상황은 언제, 어디일까요?



Multitasking

위의 질문에 대한 해답을 고민하던 중, 같은 질문에서 시작된 한 아티클 [What voice UI is good for(and what it isn't)]에서 'place-ona(place+persona)' 라는 재미있는 개념을 알게 되었습니다. 'place-ona'는 <사용자 경험 스케치>의 저자 빌 벅스튼이 제시한 개념으로, 음성 인터랙션은 사용자의 성향보다는 맥락에 따라 필요성이 다르기 때문에 장소에 따라 인터랙션의 행태가 결정된다는 것인데요. 아티클에서는 이에 대한 예시로 도서관, 요리 중, 시끄러운 클럽, 주행 중 이렇게 시각 및 청각적 제약이 서로 다른 4가지 place를 놓고 음성 인터랙션이 효과적인 상황을 비교해 보았습니다. 결론부터 말하자면 음성 인터랙션이 더 우세한 상황은 두 가지 조건이 일치하는 경우라는 것을 알 수 있습니다.


1. 사용자의 시선 혹은 두 손이 부자유한 상황

2. (당연하지만) 청각적 방해가 없는 상황


1번의 경우 시선과 두 손의 제약 상황은 곧 사용자가 무언가 다른 일을 하는 것으로 해석할 수 있습니다. 반면, 모바일이나 태블릿 등 스크린 디바이스를 얼마든지 사용할 수 있는 환경에서 음성으로 조작하는 시나리오를 상상해보면 현재로선 그다지 와닿지 않는데요. 정보량에 상관없이 효율적이고 즉각적으로 처리할 수 있는 화면에서의 경험이 우리에게 아직은 너무 익숙하기 때문입니다. 위에서 언급했듯이 음성 인터랙션으로 조작할 때 특히 효과적인 contents가 있겠지만, 보편적인 상황을 생각하면 화면 인터랙션의 익숙함, 효율성 등의 요인으로 음성 인터랙션만을 단독으로 사용하는 씬을 상상하기는 어렵습니다. 결과적으로 현재의 음성 인터랙션은 '제약이 있는' 멀티태스킹 상황이 가장 효과적입니다. 특히 요리나 주행처럼 익숙한 일이면서도 수행 도중에 레시피나 교통상황 등의 정보나 콘텐츠가 필요한 경우 더욱 유용하겠죠.

이번 시리즈에서는 커넥티드 카에 탑재되는 VUX 서비스를 설계한 경험을 바탕으로 멀티태스킹의 하나인 주행 중 음성 인터랙션에 대해서 알아볼 텐데요. 이번 글에서는 주행 중 상황의 특성과 인터랙션 설계 시 고려해야 할 점을 짚어보겠습니다.



주행 중 인터랙션의 특징 : 대충 듣고 쓱 훑어본다

주행 중 운전자의 시선은 매우 바쁘다


차량 내에서의 음성 인터랙션은 일반 스마트스피커를 사용할 때와 어떻게 다를까요?

먼저 인터랙션에 충분히 집중할 수 있는 가정 내 환경과 달리, 주행 중에는 운전이 메인 태스크이고 다양한 시각적∙청각적 정보를 확인해야 하기 때문에 인터랙션을 방해받거나 충분히 집중하기 어렵다는 특징이 있습니다. 운전하며 조수석에 앉은 친구와 대화를 나누어본 경험을 떠올려 보면, 복잡한 교통상황에 의해 대화를 방해받았던 적이 있을 것입니다. 이처럼 완전히 집중하기 어려운 특성 때문에 사용자는 음성 안내의 전체를 경청하기보다는 자신이 필요한 정보를 선별적으로 캐치하고자 합니다.

또, 주행 중 사용자의 시선은 전방을 주시하고, 손은 핸들에 있기 때문에 화면 사용이 자유롭지 않다는 특징이 있습니다. 운전 중 내비게이션으로 목적지를 검색했는데 결과가 여러 개 나온 경험이 있지 않으신가요? 목적지를 잘못 선택하면 안 되지만, 여러 개의 항목을 비교해보기 위해 찬찬히 읽어보고 정확히 선택하기 어려워 여러모로 신경 쓰이는 상황이죠. 요즘의 운전자들은 차내에서 스마트폰을 거치하여 사용하기 때문에 운전 중 화면 사용이 비교적 익숙한 편이지만, 그럼에도 화면 조작은 정확도가 떨어지며 인터랙션의 흐름을 이어가기 어렵습니다. 사실, 주행 상황에서는 안전을 위해 지양해야 합니다. 따라서 익숙해진다면 주행 중에는 운전에 방해를 주지 않는 음성 인풋이 화면보다 훨씬 편리할 수밖에 없습니다.

위와 같이 주행 중이라는 특수한 맥락이 인터랙션 방식에 영향을 주기 때문에, 차량 내에서 사용하는 VUX를 설계하기 위해서는 이러한 맥락에 대한 이해가 필요합니다. 이제 차량 내 음성 인터랙션이 지향해야 할 방향을 다음 질문을 통해 알아보겠습니다.


1. 주행 중 음성으로 의사결정은 어떻게 해야 할까?

2. 주행 중 음성과 화면이라는 2가지 채널을 어떻게 활용해야 할까?



의사결정을 줄이되, 꼭 필요한 정보는 생략하지 않기

사용자 : 볼빨간 사춘기 노래 틀어줘.

AI : 볼빨간 사춘기의 인기곡 '우주를 줄게'를 들려 드릴게요.


사용자 : (민지한테 늦는다고 전화해야겠다) 김민지에게 전화 걸어줘.

AI : '김민지'로 등록된 연락처가 3개 있네요. 가장 최근에 전화한 사람에게 걸어 드릴게요.

사용자 : 어.. 잠깐만...

AI : RRRR...


주행 중 사용자에게 의사결정을 맡기려고 할 때는 상황에 대한 판단이 중요합니다. 위에서 언급했듯 주행 중 인터랙션은 멀티태스킹이기 때문에, 인터랙션에 100% 집중하기는 어렵습니다. 따라서 사용자가 음성으로 간단한 태스크를 실행하려고 할 때 사소한 부분까지 의사를 물어보고 진행하려 하면 사용자를 번거롭게 만들 수 있습니다. 음악이나 팟캐스트 재생 같은 경우, 디테일을 더 묻지 않고 로직에 따라 적합한 콘텐츠를 재생한다면 태스크를 간단하게 만들면서도 사용자의 의도에서 크게 벗어나지 않는 결과를 가져다줄 수 있습니다. 다만, 전화를 걸거나 목적지를 변경하려는 상황은 조금 다릅니다. 전화나 목적지는 잘못 설정했다가는 굉장히 난감해질 수 있기 때문에, 사용자의 정확한 의사결정을 필요로 하는 태스크입니다. 주행 중 음성 AI가 제멋대로 내 친구가 아닌 이전 거래처 사람에게 전화를 걸거나, 스타필드 하남점에 가려고 했는데 고양점으로 자동 선택해서 안내한다면 그 날을 끝으로 음성 조작은 사용자에게 영영 버려질 확률이 높습니다. 정확도에 대한 민감도가 높은 상황에서는 사용자의 결정에 따라 정확한 조작이 중요하기 때문에, 필요한 정보를 충분히 제공하여 디테일을 확인할 수 있도록 해야 합니다. 요약하면, 주행 중에는 되도록 의사결정을 줄이는 것이 바람직하지만 정확도에 민감한 상황이라면 꼭 필요한 정보를 모두 제공하여 사용자가 결정하도록 해야 합니다.



사용자와 음성으로 핑퐁하고, 꼭 필요한 경우에만 화면을 보여주기

사용자 : 서울시청으로 안내해줘.

AI : '서울시청'에 대한 검색결과가 20개 있습니다. 서울특별시청, 서울시청신청사 주차장, 서울특별시청 서소문청사, 서울시청 서소문별관 주차장, 서울특별시청 서소문청사 서울시의회별관, 서울시청 시민청 태평홀, 서울특별시청 서울시청 별관2동, 서울시청 다목적홀, ... 어디로 안내해 드릴까요?

사용자 : (내가 어딜 가려고 했더라..)


위에서 살펴보았듯이, 주행 중에는 음성 인터랙션이 화면에 비해 주의를 덜 끌기 때문에 훨씬 유리한 위치를 점하고 있습니다. 그러나 서비스가 고도화되고 보다 풍부한 기능을 제공하고자 한다면 곧 음성의 한계와 마주하게 되는데요. 위의 예시처럼 내비게이션이나 항목의 리스트처럼 시각적 인지에 익숙한 정보의 경우가 그렇습니다. 내비게이션의 경우 거리와 방향은 화면을 보고 인지하는 것이 훨씬 효율적이고, 정보를 인지하는 시점이 주행 상황과 밀접한 연관이 있기 때문에 안전한 주행을 위해 반드시 시각 정보가 동반되어야 합니다. 또 사용자에게 다양한 옵션을 제공해야 할 경우 옵션 리스트를 화면으로도 제공하여 음성 인터랙션을 보조할 수도 있습니다. 인터랙션의 일관성을 유지하는 것은 중요하지만, 사용자에게 중요한 정보를 전달해야 할 때 비효율적인 방법을 고집하는 것은 좋은 인터랙션이라고 하기 어렵습니다. 따라서, 주행 환경에서 음성 인터랙션을 주로 사용하되, 음성으로 전달하기에 한계가 있는 경우 화면을 활용하여 사용성을 높일 수 있습니다. 다만 사용자가 혼란스럽지 않도록 화면은 음성을 보조하는 서브 채널로 사용해야 하며, 사용자의 음성 질의나 명령에 화면으로 대답하는 일은 없어야 합니다.



마치며

이 글에서는 음성 UX에 가장 적합한 멀티태스킹, 그리고 대표적 예시인 주행상황에서의 음성 인터랙션은 어떻게 이루어져야 하는지 알아보았습니다. 어떻게 보면 제약이 많은 상황의 인터랙션을 설계하는 것은 매우 재미있기도 했지만, 그렇기 때문에 사용자가 어떻게 받아들일지에 대해 심도 있게 고려해야 하는 과정이었습니다. 다음 글에서는 이러한 음성 인터랙션이 기존의 차내 음성 검색 경험과 비교하여 어떤 차이점이 있는지 소개하겠습니다.



[참고##음성인식##]



팀블로그 pxd Story 구독 방법  블로그 글은 각 개인의 생각이며 피엑스디와 다를 수 있습니다.


Trackback 0 Comment 0
Ad Test...