태터데스크 관리자

도움말
닫기
적용하기   첫페이지 만들기

태터데스크 메시지

저장하였습니다.


'ai'에 해당되는 글 9건

  1. 2018.09.03 인공지능(AI), 인간의 선택을 묻다 by 김성경(kkyung)
  2. 2018.07.02 6개의 가상개인비서(Agent) 사용 후기 by 고은빈
  3. 2017.12.21 VUX in car 4편 - 자동차 음성 인터페이스(AI)의 미래 상상해보기 by 김희웅
  4. 2017.12.18 VUX in car 3편 - 카플레이, 궁극의 드라이빙 파트너일까? by 최규진(Kris)
  5. 2017.12.14 VUX in car 2편 - 기존의 자동차 음성 명령과 자동차 x AI 스피커의 차이점 by KAHYUN.
  6. 2017.12.11 VUX in car 1편 - VUX, 멀티태스킹, 그리고 커넥티드 카 by seyonkim
  7. 2017.10.23 UX의 미래는 여기에 있다 - UX for Next Billion Users by 이 재용
  8. 2016.12.15 [pxd talks 66] 모바일,커머스,시간 by 베비버드
  9. 2010.03.19 Siri, Personal Assistant? by KyongHo
2018.09.03 07:50

인공지능(AI), 인간의 선택을 묻다


인공지능(AI) 시대는 꾸준히 대두되어왔으며 세계 각국은 AI가 바꿔놓을 부와 노동의 미래를 예견하는 데 온 역량을 투입하고 있습니다. 지난 8월 15일 저희는 시사IN에서 주최하는 2018 인공지능 콘퍼런스에 다녀왔습니다. 콘퍼런스에서 인상 깊었던 두 교수님의 강연을 공유하려 합니다.


로봇 윤리 : 원칙에서 정책으로 - Alan Winfield

작성자 : 김성경

세계적인 로봇 권위자인 영국 UWE Bistol 로봇 윤리 교수이자 로봇 자동화세 주창자인 '앨런 윈필드'의 강연을 듣고 왔습니다. 이번 내용에서는 로봇 윤리에 관한 문제점과 그 문제를 해결하려는 노력에 대해 공유하려 합니다.



AI의 윤리적 문제

1. 운전자와 보행자의 목숨을 앗아간 무인 자동차

자율주행모드 사고 (출처: Florida traffic crash report)


2016년 한 운전자가 자율주행상태로 운전을 하던 중 사고로 사망한 사례가 있습니다. 자율주행모드 자동차가 하얀색의 트럭을 하늘과 같다고 착각하여 트레일러를 들이받은 것이지요. 테슬라는 운전에 집중하지 않은 운전자의 잘못이라고 했지만, 앨런 교수는 입증되지 않은 자율주행기술을 실제 환경에서 인간을 대상으로 안전을 테스트한다는 자체가 비윤리적이라고 말했습니다.

이 외에도 올해 3월 자율주행 우버 차량이 보행자를 인지하지 못해 보행자가 사망한 사례가 있습니다. 정확한 원인은 밝혀지지 않았고 아직 조사하고 있습니다. 여기서 충격적인 사실은 정부가 ‘Uber’라는 회사와 비밀스럽게 테스트를 하고 있었다는 것입니다. 시민들은 자신들이 사는 곳에서 테스트가 이뤄지는지조차 몰랐습니다. 과학자들은 비윤리적인 실험을 할 수 없습니다. 그러나 로봇의 경우 앞서 말한 두 사례와 같이 비윤리적인 실험들이 행해지고 있습니다.


2. 로봇과 자동화로부터 생산되는 이윤 배분 문제

2014년 영국 옥스퍼드대 딜로이트의 일자리 미래 보고서에 따르면 영국 내 현재 일자리의 35%는 20년 안에 AI에 의해 대체될 것이라 합니다. 이에 대한 대책으로 2015년 앨런 교수는 로봇과 자동화에 따른 실업 위기에 대비하기 위한 '자동화세'를 제안했습니다. '자동화세(Automation Tax)'란 로봇과 인공지능의 자동화로 작업장 일자리가 축소될 해당 기업에 세금을 부과하여 실직자를 지원하는 재원을 마련하자는 취지의 안입니다. 로봇의 발전은 시민들이 지불한 세금으로 이루어졌기 때문에 그로부터 생산되는 이윤을 나눠 갖는 것은 당연하다는 것입니다. 뿐만 아니라 부를 나눠 갖는다고 했을 때 모든 사람들이 공평하게 나누어 가질 수 있는지 또한 문제점으로 꼽았습니다.


3. 인간을 닮아가는 로봇의 겉모습

앨런 교수는 똑똑하지 않은 로봇이 사람과 같은 모습을 하는 것 또한 문제가 된다고 말했습니다. 시간이 흘러 인간과 비슷한 정도의 지능을 갖추지 않는 이상 현재의 지능에서는 신체와 두뇌 간의 부조화가 발생하기 때문에 인간을 닮은 로봇은 만들면 안 된다고 주장했습니다. 올해 초 한창 이슈였던 인공지능 로봇 '소피아'가 지난 10월 사우디아라비아 정부로부터 시민권을 부여받은 사례를 들며 로봇이 인간의 모습을 가졌을 때 발생할 수 있는 문제들의 우려를 표했습니다.



윤리적 문제점들을 해결하기 위한 노력

1. 높은 수준의 투명성 지향

높은 수준의 투명성이 필요하다고 앨런 교수는 말했습니다. 투명성이 보장된다면 사람들은 안심하게 될 테니까요. 항공기로 예를 들겠습니다. 항공기에서 사고가 발생하면 사고 조사 리포트를 통해 언론에 공개됩니다. 시민들은 투명한 조사 결과를 보며 사고가 정확하게 조사되고 있다는 사실만으로도 안심하게 됩니다. 항공기가 모든 주행 기록을 가지고 있는 것처럼 혹은 자동차에 블랙박스가 있는 것처럼 자율주행차량, 일부 의료진단 AI 등 AI 로봇도 마찬가지여야 된다고 말합니다. 그뿐만 아니라 AI 내부의 의사결정의 log도 기록되어야 하며 이렇게 된다면 고령 인구도 로봇이 어떠한 일을 수행할 때 '왜' 그렇게 행동하는지 의사결정의 이유를 알게 되면 신뢰도가 올라갈 수 있습니다.


2. 로봇의 윤리 문제를 다룬 공식 가이드라인(BSI) 발표

'영국표준연구소(BSI:British Standards Institute)'는 로봇의 윤리문제를 다룬 공식 가이드라인을 발표했습니다. 이 가이드라인에서는 로봇 비인간화, 환경적 문제 등 20여 개의 위험을 규명하고 있으며 어떻게 하면 피해를 최소화할지 방법을 제시합니다. 이 표준은 로봇 업계 및 시스템 관리자와 설계자를 위해 만들어졌으며 과학자나 철학자, 윤리학자뿐만 아니라 로봇, 제조 및 엔지니어링 산업 내 지식인들이 모여 토론을 통해 개발하였다고 합니다.

※ 참가 기관의 예 : Bristol Robotics Laboratory, University of Liverpool, Consumer and Public Interest Network (CPIN), Health and Safety Executive (HSE), University of Sheffield, Knowledge Transfer Network (KTN) and AVIAN Technologies.



로봇 실험을 통한 윤리적인 딜레마 사례

도로를 걸어가는데 도로에 큰 구멍이 있고 그 위를 누군가 핸드폰을 보며 지나가는 것을 상상해봅시다. 누구나 그 사람을 구하려 할 것입니다. 왜 구하려 할까요? 착한 사람일 수도 있겠지만, 사람은 '미래'를 '예측'할 수 있기 때문입니다. 앨런 교수는 로봇에게 이러한 인지적 프로세스를 적용하여 미래를 예측할 수 있도록 설계한 실험을 진행했습니다.


위의 이미지를 설명해 드리자면, H-robot이 위험한 구멍(Hole)을 향해 가는 사람이고 A-robot은 위험을 막아야 하는 로봇입니다. 실험 결과 로봇은 어떤 결정을 내렸을까요? H-robot이 Hole에 못 가도록 충돌을 만든 후에 원래 로봇이 가려던 곳(goal)을 향해 갔습니다. 매우 간단하죠? 이번에는 앨런 교수는 A-robot 윤리적 딜레마 상황에 부닥치도록 했습니다.


구멍으로 가는 사람이 한 명일 때는 매번 사람을 살릴 수 있었지만, 두 명의 사람이 구멍으로 향할 때 A-robot은 어쩔 줄 모르는 상태에 빠졌습니다. 가끔 한 명을 살리기도 했지만 결정 장애를 가진 로봇은 대부분 두 명의 사람 모두 살리지 못했습니다. 즉, 이 실험을 통해 알 수 있는 것은 로봇은 윤리적인 결정을 할 수 없으며 결국 로봇의 행동도 인간의 선택에 따라 결정되며 인간의 선택에 따라 인간에게 돌아가는 혜택이 결정된다는 것입니다.



마치며

AI에 관한 다양한 이슈를 접해왔지만, 이번 강연을 통해 ‘윤리’관점으로 새롭게 생각해보는 시간이었습니다. 현재 AI는 효율적인 기능 수행뿐 아니라 인간과 감정적으로 상호작용하는 수준에 이르고 있습니다. 아주 먼 미래에는 내 옆을 항상 지켜주고 관리해주는 AI가 항상 상주하여 '1인 1 AI'라는 말이 나올 수 있지도 않을까요? 그렇다고 했을 때 앞으로의 AI의 윤리적 관점은 점점 더 중요해질 것 같습니다. '원칙'으로 정의되는 것들이 '정책'이 되는 그날을 기다려봅니다.



인공지능과 윤리 - Ronald Arkin

작성자 : 박정현

미 조지아 공대의 로날드 아킨 교수님은 ‘킬러 로봇’이라고도 불리는 전쟁현장의 로봇에 대한 이슈를 들려주었습니다.

전쟁을 겪어보지 않은 필자로서는 상당히 흥미롭고 생소한 주제였는데요, 현실의 삶을 살면서도 제가 늘 외면하는 현실 중의 하나는 아마도 '지금 이 순간에도 어디선가는 전쟁이 일어나고 있다'일 것입니다. 아킨 교수도 말했듯, 전쟁은 일어나서는 안 되지만 계속해서 일어납니다.

군사적 관점에서 로봇은 왜 조명을 받을까요? 전쟁이 계속된다는 전제에 근거하여, 로봇이 대신 일 하여 필요한 병사 수를 감축할 수 있기 때문입니다. 사람은 밥도 먹고 화장실도 가는데, 로봇은 더 효율적으로 사람들을 대신하여 일할 수 있습니다. 또 자율주행차, 드론, 무인 비행기 등을 이용할 수도 있고요. 사람이 감지할 수 없는 것들을 감지하는 등, 기술을 통해 전투력을 강화할 수도 있습니다.

여기서 우리는 발생 가능한 문제들을 봐야 합니다. 킬러 로봇이라고 명명되는 '치명적 자율 무기'가 있습니다. 삼성테크윈 쪽에서도 개발했지만 스스로 결정을 내리도록 만들어진 로봇들입니다. 타겟을 감지하여 공격하는 로봇이죠. ‘자율’무기란, 인간이 프로그래밍한 룰에 기반하여 결정하고 행동하는 로봇입니다. 결국, 방아쇠를 당기는 결정은 사람이 하는 것이죠.

따라서 윤리적 관점에서 우리는 어디까지 인공지능에 결정권을 맡길 것인지에 대해 결정해야 합니다. 로봇 컨트롤 위원회, 국제 인권 감시 기구 등 여러 집단이 다양한 목소리를 내고 있습니다. 아킨 교수는 윤리적 관점에서의 법을 찾아 제한된 범주를 가지고 로봇이 전쟁에 이용되도록 하자고 주장했습니다. 일례로, 교전법이라는 것이 존재하고, 이는 군인들이라도 공동묘지에 있으면 공격해서는 안 된다는 등의 내용을 포함합니다. 아킨 교수가 가장 우려하는 바는, 무고한 민간인들의 죽음이었습니다. 어떤 방식으로든 전쟁 과정에서 민간인의 희생을 줄이기 위해 기술적 차원의 검토가 필요하고, 가능하다면 기술을 사용해 피해를 적극적으로 줄여야 한다는 것입니다.

과거에는 영토를 확장하기 위해, 남이 가진 것을 빼앗기 위해, 또 권력의 쟁탈을 위해 물리적인 전쟁을 벌였습니다. 이제는 세계의 많은 나라가 먹고 사는 데에 문제가 없고, 영토의 경계가 안정화 된 듯합니다. 그러나 정치적, 외교적 이유로 전쟁의 가능성을 닫지 않습니다. 우리는 현대 사회에서 실제적인 사살, 실제적인 폭력과 물리적인 무너트림이 없는 전쟁을 어떻게 할 것이며, 여기서 로봇이 어떤 역할을 해야 할지 생각하고 결정해야 할 것입니다. 기술에 가속을 붙이기 전에 관점을 가지지 못해 우리 스스로가 망가지는 현상이 일어나지 않기 위해 책임을 가지고 생각해 나가야 할 '현실의 인간으로서의' 의무를 느낀 시간이었습니다.


<참고 기사>

http://dongascience.donga.com/special.php?idx=763

http://www.hankookilbo.com/v_print.aspx?id=29d68d9f4a5142218be55d19b43a6708




팀블로그 pxd Story 구독 방법  블로그 글은 각 개인의 생각이며 피엑스디와 다를 수 있습니다.


Trackback 0 Comment 0
Ad Test...
2018.07.02 07:50

6개의 가상개인비서(Agent) 사용 후기


1. 들어가며

인턴 UI 디자이너로서 두 달간 일하며 음성 인식 기술을 공부하고 탐구해볼 기회가 생겼다. 개인적으로 시리를 몇 번 정도 사용해본 경험은 있지만, 사용 경험이 그리 만족스럽지 않아 지속적인 사용으로 이어지지 않았었다. 따라서 나에게 가상 개인비서(Agent)란 가깝고도 먼 존재였다. 하지만 이번을 계기로 구글 어시스턴트, 시리, 빅스비, 네이버 클로바, SK 누구, 알렉사 총 6개의 가상 개인비서(Agent)를 본격적으로, 성실히 사용해보았다.

최근 음성 인식 기술에 대한 높은 관심으로 인해, 여러 기업의 가상 개인비서(Agent)에 대한 사용 경험을 비교, 정리한 영상이나 자료들을 어렵지 않게 찾을 수 있었다. (이하 ‘음성 에이전트’라고 하겠다) 필자 또한 이의 연장 선상에서 수많은 발화를 각 음성 에이전트에게 말했을 때, 각 음성 에이전트가 어떻게 호응(반응)하는지에 대해 정리하고 느낀 점을 써보려 한다. 다만 기존 비교들과 다르게 ‘기능 수행’에 초점을 맞추기보단 ‘칫챗(Chit-Chat)’을 다양하게 시도해본 후 각 음성 에이전트가 어떻게 호응(반응)하는지 위주로 작성했다. 여기서 ‘칫챗’이란, 목적 없는 수다, 잡담 정도로 이해하면 될 것 같다. 따라서 ‘특정 서비스 기능에 대한 사용성 비교’보다 ‘칫챗 발화에 대한 대응 비교’라고 하는 것이 더 적절할 것 같다.


2. 각 발화 사례와 그에 따른 응답 내용

1) 에이전트 자체에 대한 질문

음성 에이전트가 기계임에 한정 짓지 않은 질문(실제 사람 간의 대화 같은)을 했을 때의 내용이다. 이를 통해 각 음성 에이전트의 포지션과 성격을 느낄 수 있었다. “넌 누구야?”라는 질문을 했을 때만 보아도, 대부분 자신을 ‘비서’로 소개하고 있었으나 빅스비와 클로바의 경우 ‘친구’라는 역할을 언급했다. ‘비서’라는 역할에 그치지 않고 ‘친구’로서 자리 잡고자 하는 의도를 느낄 수 있었다. 또한 흥미로웠던 점은 음성 에이전트가 자신의 자아(?)가 있음을 표현한다는 것이었다. (물론 에이전트에 대한 모든 질문에 자연스럽게 대답하는 것은 아니었지만) 예를 들어, 알렉사의 경우 커피를 좋아하느냐는 질문에 “Yes. In fact, I love iced coffee.”라며 냉커피를 좋아한다는 선호를 밝히는 대답을 했다. 이와 반대로 시리의 경우는 혼자 있을 때 주로 뭐하냐는 질문에 “온 세상이 제 관계에 대해 관심이 많은 것 같네요.”라며 다소 시크한 응답을 주었다. 자신을 효율적인 업무수행을 돕는 ‘비서’ 역할에 한정 지었기 때문에 스스로에 대한 캐릭터나 특성에 대한 질문에는 의도적으로 자신을 드러내지 않는 듯한 느낌을 받았다.


2) 사용자의 컨디션 발화

사용자의 컨디션에 대해 말했을 때의 내용이다. “배고파”라고 말했을 때 음성 에이전트별로 적극성의 정도에서 다른 반응을 보였다. 빅스비와 누구의 경우, “맛있는 거 먹고 기운 내요!”, “항상 든든하게 챙겨 드시길 바랄게요.”라며 general(일반적인) 호응을 해주었지만, 실질적인 도움은 되진 않았다. 빅스비는 전반적으로 순종적이지만 융통성이 부족한 친구처럼 느껴졌다... 반면, 시리, 구글 어시스턴트와 알렉사의 경우 주변에 맛집을 찾아주겠다며 적극적인 태도를 보였다. 특히 시리는 “배고프면 뭘 먹어야지요”라며 어투적인 면에서나 결과 15개를 보여주며 대안을 제시하는 모습에서, 더욱더 주도적이고 적극적으로 느껴졌다. “취했어”라고 말했을 때 또한 시리는 “우리 중 누구도 집에 갈 때 절대로 운전해서는 안 돼요”라고 단호하게 말하며 택시 앱을 연동해주는 것을 통해 눈치 빠른 비서라는 생각이 들었다.


3) 사용자의 행동 발화

사용자의 행동에 대해 말했을 때의 내용이다. “나 집에 왔어”라고 말했을 때 구글 어시스턴트를 제외한 다른 에이전트들은 비슷한 방식으로 사용자를 반겨주었다. 사실 이 발화는 함께 이동하는 모바일보다는, 집을 지키고 있는 스피커에게 “나 집에 왔어”라고 할 때가 더 자연스러울 것 같다는 생각이 들었다. 구글 어시스턴트는 구글 홈(AI 스피커)을 통해 사용자가 집에 왔을 때 최적의 환경을 조성해주는 기능을 제공하는 듯했다. “나 운동할 거야”, “피자 먹을 거야”라고 말했을 때는 이전 내용과 비슷하게 바로 서비스(앱)를 연동해주거나 검색 결과를 제공해주는 적극성을 띤 답변들과 가벼운 공감을 해주는 답변들 정도로 나뉘었다.



영화 Her 중에서


3. 마치며

6개의 음성 에이전트를 사용하며 많은 칫챗을 나눌 수 있었다. 이전에 시리를 사용해보며 사용 경험이 만족스럽지 않았기 때문에 낮은 기대에서 시작했지만, 사람이 할 법한 답변을 해내는 몇몇 음성 에이전트를 경험하며 이전보다는 음성 대화에 대한 기대 수준이 높아짐을 느낄 수 있었다. 또한 이제부터는 더 높은 음성 인식률을 내세우는 경쟁이 아닌, 좀 더 높은 수준의 질적 답변을 줄 수 있는지에 대한 경쟁이라는 생각이 들었다. 현재는 정해진 답변 중에서 랜덤으로 제공되는 것이 사용자의 입장에서도 느껴지기 때문에 칫챗 대화가 어색할 수밖에 없다. 그래서 사용자들도 처음 몇 번을 제외하고는 대화 경험이 만족스럽지 않아 외면하게 되는 것 같다. (필자 포함) 하지만 기업별로 음성 인식 기술에 대한 고도화와 더 나은 VUI(Voice User Interaction) 설계에 총력을 다하고 있는 만큼 달라지는 모습을 기대해 볼 만 하다고 생각한다. 가까운 미래에는 내 마음을 잘 알아주며 자연스러운 칫챗대화가 가능한 센스있는 음성 에이전트로 발전하길 기대해 본다.


[참고##음성인식##]



팀블로그 pxd Story 구독 방법  블로그 글은 각 개인의 생각이며 피엑스디와 다를 수 있습니다.


Trackback 0 Comment 0
Ad Test...
2017.12.21 07:50

VUX in car 4편 - 자동차 음성 인터페이스(AI)의 미래 상상해보기

미래의 음성 인터페이스(AI)는 어떤 역할을 할 수 있을까?
: 자동차 음성 인터페이스(AI)의 미래 상상해보기



들어가며...

최초의 스마트 스피커인 아마존 알렉사 출시 이후부터 음성인식 스피커의 붐이 일었고, 현재는 어느 정도 정점을 찍은 듯한 시기라는 생각이 듭니다. 이미 음성인식 스피커 시장은 포화 수준을 넘어 과포화 상태이며, 각각 회사에서 출시한 제품들은 저마다의 개성과 강점으로 시장에서 나름의 포지션을 구축하고 있습니다. 그런 상황에서 음성인식에 대한 열기는 스마트 스피커에서 자연스럽게 다른 플랫폼으로 전이되었는데요. 유수의 기업들이 기를 쓰고 공략하고자 하는 다음 플랫폼은 바로 자동차(Automobile)입니다.

실제로 기업들의 투자와 개발로 차량 내의 음성인식 기능은 점차 발전하고 있으며, 머지않은 미래에는 차 안에서 기능 조작을 위해 그 어떤 신체적인 행동을 할 필요가 없어지는 시대가 올 것으로 보입니다. 그야말로 자율 주행, 운전자가 필요 없는, 차 안에는 탑승자만 있는 세상의 문턱 앞에 와있습니다.

애니메이션 사이버포뮬러 자동차 AI 아스라다 : 무언가 다급하게 말하고 있다


기억나시나요? 많은 꼬마들을 자동차광으로 만들어버린 그 만화영화. 네 맞습니다, '신세기 사이버 포뮬러'(한국 방영 제목: 영광의 레이서)입니다. 이번에 자동차 음성인식 프로젝트를 하면서 가장 많이 떠올렸던 만화입니다. 오랜 시간이 지났지만, 다시 봐도 설레게 하네요. 제게 가장 인상 깊었던 부분은 아스라다라는 자동차 AI 캐릭터입니다. 저 동그란 녀석이 음성 AI(아스라다) 인데요. 네 개의 점이 마치 구글 홈이랑 닮아있네요^^. 주인공(드라이버)과 함께 레이싱 트랙 위를 함께 달리면서 끊임없이 소통하고 어려운 상황을 헤쳐나갈 수 있도록 도와줍니다. 아스라다가 등장할 때마다 ‘운전할 때 저런 친구가 옆에 있으면 두렵지 않을 것 같아!’라는 생각을 하곤 했었죠. 지금 봐도 이 캐릭터가 단순히 상상력으로 그려낸 미래의 단상이라고 느껴지지 않을 정도로 꽤나 현실감 있고 개연성이 있다는 생각이 듭니다.

기발한 미래 자동차 시나리오는 이러한 만화영화뿐만 아니라, 영화 혹은 글의 형태로 자동차 전문가 혹은 소설가에 의해 그려져 왔습니다. 저도 이번 글에서 자동차 내부의 음성 인터페이스의 미래에 대해 몇 가지 이야기를 나누어 보고자 합니다. 미래를 상상할 때 두서없이 상상하는 것보다는 과거부터 음성 인터페이스 기술이 어떻게 변화해왔고 그 미래를 어떨지에 대해 순차적으로 얘기하는 것이 더 자연스러울 것 같습니다. 기술이 발전하면서 차 안에서의 음성 인터페이스의 역할은 인간의 편의성을 중심으로 끊임없이 변화를 겪어 왔습니다. 과거의 상상이 현실이 되는 시대에 자동차에서의 인간과 음성 인터페이스 사이의 관계는 다시금 변화를 겪게 될 것이라고 생각합니다. 자동차 음성 인터페이스의 역할은 어떻게 변화할까요?



상상하기 전에...

어떤 대상의 미래를 상상하기 위해서는 대상의 변화를 맥락적으로 살펴볼 필요가 있습니다. 음성 인터페이스에 대한 역사는 꽤 긴 것으로 알고 있지만, 자동차 음성 인터페이스의 역사는 길지 않습니다. 그런데도 이 짧은 시간 동안 일어났던 굵직한 사건들은 짚고 넘어갈 필요가 있습니다. 그 포인트가 되는 부분을 짚어보면서 미래의 자동차 내 음성 인터페이스 이야기를 해보고자 합니다. 제가 생각했던 중요 포인트를 음성 인터페이스의 역사에 대입해보니, 크게 3개의 세대로 구분해 볼 수 있었습니다.

차량내 음성인터페이스의 의존도 변화
(이미지를 클릭하시면 크게 볼 수 있습니다)


1세대. '넌 듣기만 해! 내가 다 알려줄 테니까'

일방향 음성 인터페이스 : 음성 내비게이션

차량에서의 음성 인터페이스는 운전 중 내비게이션으로 길 안내를 받아야 하는 상황에서 주행 상황에 집중하면서 청각으로 경로를 안내받도록 하기 위해 만들어졌습니다.

문헌을 찾아보니 국내 최초의 길 안내 음성 내비게이션은 팅크웨어라는 회사에서 출시한 PDA 기반의 '아이나비320'이라고 합니다. 유명한 성우가 상황에 맞는 음성을 녹음하고, 주행 중에 해당 상황이 벌어질 때마다 녹음된 음성을 제공하는 방식이었죠. 음성 안내 기능이 추가된 내비게이션의 도입은 운전자에게 음성 인터페이스의 편리함을 느끼게 해주었던 중요한 경험이었습니다. 다만, 인간과 기기의 소통이라기보다는 일방적으로 정보를 알려주는 기능에 국한되어 있었죠.

이전에 음성인식 기능이 아예 없었던 것은 아니었습니다. 국내 최초의 음성인식 기능을 탑재한 자동차는 1997년에 출시되었었는데, 그 당시 음성인식 기능은 길 안내를 위한 것이 아니었고 주로 차량 내 기능을 조작하기 위한 것이었습니다. 그러나 높은 가격과 기술적 한계에 부딪혀 시장에서 큰 반향을 이끌지는 못했습니다. 음성인식 기능이 처음엔 신기했지만 인식률이 낮아 실용성이 떨어져서 많은 운전자가 잘 사용하지 않았고, 원하는 정보를 얻기 위해서 화면을 터치로 조작했습니다. 그러나 운전 중 화면 조작은 운전자의 집중력을 떨어뜨리고 자칫 잘못하면 사고로 이어질 수 있기 때문에 이를 보완할 수 있는 음성인식 기능이 필요한 상황이었죠.

결국, 이 시기는 내비게이션이 음성으로 알려주는 정보를 듣는 것에 만족해야 하는 시기였습니다. 음성인식 기능이 존재하긴 했지만 걸음마 단계였던 셈입니다.


2세대. '원하는 정보를 말해봐. 내가 알려줄게'

양방향 음성 인터페이스 : 인식 기술이 향상된 음성인식 스마트 스피커 출시 그 후

음성기술의 발전은 대중이 느끼지 못할 만큼 천천히 그러나 꾸준히 이루어져 왔습니다. 그러다가 최근에 음성 인터페이스 시장에 큰 획을 그은 사건이 벌어졌는데요, 바로 스마트 스피커의 출현입니다. 스마트 스피커는 사람들에게 음성 인터페이스의 편리함을 어필하면서 엄청난 붐을 일으켰습니다. 아마존 에코를 필두로 다양한 매력을 지닌 스마트 스피커가 시장에 출시되었죠. 이런 고도화된 음성인식기술을 지닌 디바이스의 출현을 가장 반겼던 플랫폼은 바로 자동차였습니다. 음성 인터페이스의 가장 큰 매력은 멀티태스킹인데, 주행 중인 운전자에게 다른 기능을 안전하게 조작할 수 있는 수단은 필요한 정도가 아니라 필수인 셈이었죠.

여러 스마트 스피커가 모바일 연동, 소형 디바이스 거치 등의 다양한 방법으로 자동차 내부로 침투하고 있습니다. 그러면서 차량 내에서의 음성 인식률뿐 아니라 조작 가능한 기능의 범위도 발전했습니다. 차량 내 인포테인먼트 요소인 디스플레이와 오디오 미디어를 음성으로 제어하는 것은 물론이고 음성인식 기능의 초창기에 구현하고자 했던 차량 내 기능(공조, 주유 알림 등)도 수준급으로 조작이 가능해졌으니까요.

NUGU X T-map 음성인식


위와 같은 서비스는 완성형의 중간 단계 정도라고 생각하는데요. 머지않아 외장형 혹은 모바일을 통한 음성인식 기능 제공 형태를 넘어 차량 내부 매립 방식의 고성능 음성인식 기능을 탑재한 AVN이 나올 것으로 보입니다.

현재의 음성 인터페이스에 대한 우리의 의존도는 아주 높습니다. 아직은 자율 주행이 상용화되지 않은 단계이기 때문에 향후 몇 년간은 인간이 운전을 해야 하는 상황일 테고, 그렇기 때문에 음성 인터페이스의 중요도가 크게 주목받는다고 할 수 있죠.


3세대. ‘좀 더 깊은 대화가 필요해'

음성 인터페이스를 넘어 스스로 생각하고 결정하는 음성 AI

가까운 미래에는 스마트 스피커 같은 단순한 묻고 답하기의 양방향 소통보다 더욱 발전한 인터랙션 방식이 등장할 것 같습니다. 저는 이러한 미래의 음성 인터페이스를 2가지 관점으로 설명해보고자 합니다.

일단 염두에 두어야 할 것이 있습니다. 다가올 음성인식 기술의 정점에는 AI가 있을 것 같은데요, 그 시대가 오면 음성 인터페이스라고 하는 것은 의미가 없을 것 같습니다. 왜냐하면 대화를 하는 주체는 AI와 인간이고, 음성 인터페이스는 두 대상이 의사소통하는 하나의 수단이 될 테니까요. 미래의 이야기를 하는 이 시점부터는 ‘음성 인터페이스'보다는 ‘AI'에 중점을 두면서 이야기를 진행해보고자 합니다.

(1) 운전자의 역할 변화를 가져올 완전 자율 주행

Tesla의 반자율 주행기술 구현으로 운전대가 없는 자동차 시대가 눈앞으로 다가왔습니다. 자율 주행으로 운전자가 더 이상 운전할 필요가 없어지면 운전자의 역할이 차량에 탑승한 다른 동승자와 다를 게 없어질 것입니다. 그렇게 되면 운전자가 운전 중의 안전을 확보함과 동시에 다른 기능을 조작하기 위해 사용했던 음성 인터페이스에 대한 의존도가 낮아질 것으로 보입니다. 이러한 변화가 다소 부정적으로 들릴 수도 있겠지만 꼭 그렇지마는 않습니다. 음성 인터페이스에 대한 의존도가 낮아졌다는 것은 다른 인터페이스에 대해 자유롭게 조작이 가능하다는 것이고, 다른 인터랙션 수단을 통해 사용자 의도를 보다 효과적으로 전달할 수 있을 테니까요.

어쩌면 결국 음성 인터페이스를 사용하는 자동차 내부 환경과 역할은 집에서 쓰는 스마트 스피커 사용 환경과 비슷해질 것 같네요.

차량 내 사용자 역할 변화 다이어그램


(2) 기능 수행을 넘어서 감정 공유 소통까지

현재 기술의 발전 속도를 고려해보았을 때, 음성인식 기능은 차량 내부에서 수행할 수 있는 모든 태스크에 대한 조작을 가능하게끔 해줄 것으로 보입니다. 가능한 기술 구현 범위 또한 확장되는 것은 물론이겠죠. 이 모든 것이 이루어진다면 음성 인터페이스(AI)에게는 어떤 역할을 기대할 수 있을까요?

자동차 분야의 전문가가 아니어서 '어떤 신기술이 탑재될 것이다.’라는 확고한 전망을 하기에는 조심스러운 측면이 있지만 현재 구현된 기술들, 여러 미래 전문가들의 연구 동향을 참고하여 나름대로 유추해보자면 저는 차량 내에서 감정을 소통할 수 있는 기능이 제공될 것 같습니다. 음성인식에 대한 이슈가 있기 전부터 인간은 인간이 아닌 대상과의 감정 공유에 대한 니즈를 갖고 있었습니다. 그러한 관심은 기술이 발전하면서 일상생활에서 만나볼 수 있게 되었습니다.

(좌) 사람형상과 차이가 있지만, 인간의 소통 방식과 닮아 있는 jibo(2014)
(우) 동작을 통해 인간과 N가지 정신적 교감이 가능한 SONY사의 강아지 로봇 Aibo(2017)


위 이미지에 언급된 사례들의 인터랙션 요소(디스플레이, 움직임 등)는 감정을 주고받는다는 느낌이 들기에 충분한 수준이었습니다. 이러한 트렌드는 스마트 스피커가 차량 내부로 유입되었던 것처럼 비슷한 순서를 밟게 될 것 같은데요.

비록 상상이었지만, 글 서두에 언급했던 ‘아스라다'라는 AI 캐릭터는 인공지능 로봇이 정착된 사례로 제가 전망하는 미래와 잘 부합하는 캐릭터입니다. 만화를 보는 내내 가장 혁신적이고 신선했다고 느꼈던 포인트였죠. 그 당시에도 ‘너무 좋은데… 저게 될까?’라는 의구심이 들었던 기억이 나는데요, 이러한 만화적 상상을 현실화시키려는 흥미로운 시도들을 발견했습니다.


(좌) 차량내부에서 감정을 표현하는 다양한 동작 제공이 가능한 MIT SENSEable City Lab의 AIDA(2009)
(우) 귀여운 인터랙션 방식과 주행 보조기능을 제공하는 Nissan사의 감성주행 도우미 Pivo2(2007)


저는 이런 시도가 참 신선하다고 느꼈습니다. 저 둘이 움직이는 것을 동영상으로 보며, 정말 심쿵하지 않을 수 없었습니다. 너무 귀여웠거든요. 어떤 부분에서 그렇게 느꼈는지 명확히 설명할 수는 없지만, 분명한 것은 감정을 주고받는 느낌이 들었습니다. 특히 혼자 자동차에 탑승해 있는 경우라면 화면 인터랙션과 음성 인터랙션을 함께 제공하면서 그것을 토대로 감정을 공유할 수 있는 매체가 있다는 것은, 자칫 지루할 수 있는 자동차 내부 환경을 바꿔줄 수 있겠다고 생각했습니다. 저 친구들과 함께한다면 운전이 너무나도 즐거울 것만 같습니다. 물론 어떤 사용자들은 ‘나는 그렇게 AI와 대화하는 것보다 그냥 TV를 보는 게 훨씬 나아'라고 말할 수도 있겠습니다. 그건 사용자의 선택 문제겠죠. 저라면 졸리거나 심심할 때 대화할 수 있는 상대가 있으면 좋겠다는 생각이 드네요. 비록 개념 수준의 연구였으며 제가 가정했던 미래 시나리오(저의 가설과는 다르게 사진에는 운전대와 운전석이 있네요.)와는 조금 차이가 있습니다만, 아주 흥미로웠던 연구라고 생각합니다.

자율 주행으로 인한 운전자의 역할 변화 그리고 기능을 수행을 넘어선 감정 소통에 대한 이슈는 결국 하나의 흐름으로 진행될 것 같습니다. 그것은 '차 안에서 어떻게 시간을 보낼 것인가?'에 대한 이슈일 것 같은데요. 움직이는 공간에서 오랜 시간을 있어야 한다면 쾌적한 환경과 흥미 요소의 제공은 운전자에게 있어 필수불가결한 요소입니다. 따라서 이제 운전자가 해야 할 고민은 '어떻게 안전하게 운전할 수 있지?'에 대한 고민에서 이제는 '차에서 뭐 하지?', '어떻게 놀까?', '자동차에서 효과적으로 일을 하기 위해서는 어떤 환경이 되어야 할까?' 등에 대한 고민으로 더욱 심화될 것 같습니다. 그렇게 되면 사람들의 니즈를 충족시켜 주기 위해 자동차 내부 인테리어나 효과적인 콘텐츠 제공을 위한 미디어 제공 기술이 자동차 산업의 새로운 먹거리로 부상하게 될 것입니다.



마치며...

2013년 2월, 바르셀로나에서 열린 Mobile World Congress에서 Audi는 자사의 모델을 광고하면서 '자동차는 가장 큰 스마트폰(Car : The world’s biggest smartphone)’이라는 캐치프레이즈를 사용했습니다. 자동차도 스마트폰처럼 여러 가지 기능들이 탑재된 거대한 디바이스가 될 것이라는 의미로 해석할 수 있는데요. 벌써 4년 전의 일이라 이제는 자동차를 스마트폰에 빗대어 묘사하는 것은 부족하다는 느낌이 듭니다. 아마도 현재의 음성인식 기술이 수준급으로 발전하였고 플랫폼으로서의 자동차의 위상 또한 눈에 띄게 높아졌기 때문인 것 같습니다. 스마트폰의 기능도 고도화되었지만, 첨단 기술의 집약체인 자동차 분야가 IT 기술과의 접목으로 갖게 된 확장성은 어마어마하게 넓은 영역을 점유할 수 있을 것으로 기대됩니다. 제가 최근 읽었던 '넥스트 모바일 : 자율 주행 혁명’이라는 책에서 저자가 말한 '자동차가 아니다. 바퀴 달린 로봇이 세상을 뒤흔들 것이다.’라는 예측처럼, 자동차의 개념은 단순한 Vehicle을 넘어 Robot을 향해 달려가고 있습니다.

더 많은 자료와 데이터를 토대로 제 상상에 대한 개연성을 높여보고자 했는데, 도움이 될 만한 글이었는지 걱정스럽습니다. 글을 읽은 혹자는 ‘전문가도 아니면서 이런 글을 써도 되나?’라고 의문을 품을지도 모릅니다. 맞습니다. 저의 짧은 식견으로 미래를 예측해보기에는 상당히 어려운 부분이 많았습니다. 미래학자 엘빈 토플러의 명언 '미래는 예측하는 것이 아니고 상상하는 것이다.’라는 말처럼 이러한 예측은 어디까지나 상상일 뿐입니다. 내일이 어떻게 될지도 모르는 상황에서 몇 년 뒤를 내다본다는 것은 어리석은 일이라고 생각할 수도 있죠. 하지만 이렇게 미래를 예상해보는 게 의미 없는 일은 아닙니다. 미래를 대비하고 준비하는 만큼 기회를 엿볼 수 있으니까요. 전문 기업 수준의 미래 예측 시나리오 정도는 아니지만, 독자들이 이 글을 읽고 자동차의 미래를 상상하는 데 조금이나마 도움이 되었기를 바랍니다.



[참고##음성인식##]



팀블로그 pxd Story 구독 방법  블로그 글은 각 개인의 생각이며 피엑스디와 다를 수 있습니다.


Trackback 0 Comment 0
Ad Test...
2017.12.18 07:50

VUX in car 3편 - 카플레이, 궁극의 드라이빙 파트너일까?

본론에 앞서...

긴 추석 연휴가 끝난 후, 인턴사원으로 pxd의 일원이 되었습니다. 당시 설레는 마음을 가득 안고 행복하게 프로젝트팀에 합류한 저에게 조금은 당황스러운 미션이 주어졌습니다. 프로젝트와 관련하여 차량을 운전하고, 주행 중에 카플레이를 사용해 보는 것이었습니다. 평소 자동차에 관심은 많았지만, 차량 브랜드에 관한 기호와 흥미였을 뿐 자동차에 대한 전문지식은 깊지 못했던 터라 조금은 당황했었고, 더불어 운전 실력마저 그렇게 능숙하지 못했던 필자이기에 꽤나 긴장했던 것 같습니다. 그래도 '남자가 칼을 뽑았으면 무라도 썰어야지' 하는 생각으로 운전대를 잡았고, 함께 탄 팀원들 덕분에 즐거운 분위기 속에서 현장 리서치를 무사히 마칠 수 있었습니다.

이제 그 현장 경험을 바탕으로 애플의 차량 인포테인먼트 시스템인 카플레이가 이 글의 제목처럼 궁극의 드라이빙 파트너가 맞는지에 대해 이야기해 보고자 합니다.



손쉽고 빠른 연결

아이폰 상에서 별도의 앱을 설치할 필요가 없이, 이를 지원하는 차량이라면 손쉽게 아이폰과 연결하여 카플레이를 이용할 수 있습니다. (물론, 아이폰5와 그 이후 출시된 아이폰에서만 카플레이를 이용할 수 있습니다.) 이를 위해 우선 아이폰의 설정 > 일반설정 메뉴에서 카플레이를 활성화하고, USB 케이블을 이용하여 유선으로 차량과 연결하면 됩니다. 블루투스를 통한 연결을 지원하는 차량도 점차 늘어나고 있으니 무선 연결에 대한 부분도 기대해 볼 만한 이슈입니다. ('톰스 가이드'에 따르면 2017년 BMW 5시리즈가 처음으로 카플레이 무선 연결을 지원한 차량이라고 합니다.)


차량과 아이폰의 연결을 통한 카플레이 실행 (출처: arstechnica.com)


아이폰과 연결이 되면, 차량 중앙 화면에 카플레이 홈 화면이 나타나며, 아이폰에서도 차량과 연결되었음을 확인할 수 있습니다. 카플레이의 홈 화면에는 친숙한 아이폰 안의 앱들이 등장합니다. 하지만 카플레이의 경우 주행이라는 context에 알맞게 UI가 큼직하게 디자인되어 있습니다. 예를 들면, 물리적으로 아이폰보다 넓은 카플레이의 홈 화면은 8개의 커다란 크기의 아이콘을 담을 수 있는데, 이는 주행 환경에서 사용자가 잘못 선택할 확률을 줄여줍니다. (아이폰과 비교하자면, 아이폰X의 경우 한 화면에 28개의 앱을 보여줄 수 있습니다.)

차량과 아이폰의 연결 후에도 홈버튼을 눌러 아이폰을 이용할 수 있습니다. 카플레이의 기본적인 동작 방식은 미러링과 같아서 아이폰에서 이루어지는 대부분의 태스크가 카플레이 환경에 그대로 이어져 실행되거나 중지되기 때문에 선택적인 제어가 필요합니다. 다만, 주행 중에 휴대폰을 탐색하는 것은 바람직한 운전자의 행동이 아닐뿐더러, 도로 교통법에 저촉되어 6만 원 이상의 범칙금과 15점의 벌점을 받을 수 있으니 유의해야 합니다.



말 잘 알아듣는 시리 x 카플레이

기본적으로 주행 환경을 고려한 카플레이는 시리를 앞세워 음성 인터랙션을 주요 채널로 가져갑니다. 시리를 통해서 기능을 실행하는 방법은 간단합니다. 물리버튼(운전대의 물리버튼/차량 화면 또는 모바일 화면의 홈버튼 롱프레스)을 누르거나 모바일처럼 "시리야"로 시리를 호출하고, 음성인식 스탠바이를 알리는 사운드 피드백이 나오면 원하는 태스크에 대한 음성명령을 입력하면 됩니다. 사용자의 음성을 인식한 시리는 인식 완료에 대한 사운드 피드백을 주고 명령에 대한 음성 피드백과 같이 해당 태스크를 실행하게 됩니다. 이 과정은 차량 내의 화면을 통해서도 확인할 수 있습니다.


시리가 활성화된 카플레이 (출처: gearbrain.com)


카플레이의 시리는 모바일 환경의 시리와 많이 다르진 않습니다. 다만, 시각적인 정보들을 잘 활용해서 전달하는 아이폰의 시리와는 달리 카플레이의 시리는 최대한 음성 채널로 결과를 제공하려 노력합니다. 그 이유에는 주행 상황과 관련이 깊습니다. 주행 중에 차량에 설치된 화면을 주시하거나 직접 터치하는 것은 운전 부주의로 이어져 사고가 나는 위험천만한 행동이 될 수 있기 때문입니다.

카플레이에서는 시리가 제공하는 음성 서비스의 예로 수신된 SMS를 읽어준다거나, 통화를 걸 때 수신자의 정보를 읽어주는 것들을 들 수 있습니다. 카플레이와 시리의 이러한 기능에 대해서는 다음 장에 자세히 다루어 보고자 합니다.



카플레이 속 다양한 서비스 기능들

카플레이가 제공하는 기능은 크게 내비게이션, 커뮤니케이션, 엔터테인먼트 등으로 나눌 수 있습니다.

카플레이 홈화면 (출처: gearbrain.com)


카플레이의 앱 구성은 연결하는 사용자의 아이폰에 설치된 앱의 유무와 종류에 따라서 달라집니다. 기본적으로 지도 앱을 통해 내비게이션 기능을 제공하고, 전화/SMS 앱을 통해 다른 사람들과 연결해주며, 음악/팟캐스트/라디오 앱을 통해 미디어를 소비할 수 있도록 도와줍니다. 다만 카플레이는 사용자의 모든 아이폰 속 앱을 지원하지 않습니다. 카플레이는 주행 중 시선을 고려해 오디오 청취를 목적으로 하는 꼭 필요한 앱들만을 제공합니다. 따라서 필요에 의한 작업은 연결된 아이폰을 통해서 이용해야 할 필요가 있습니다.


내비게이션 기능

애플의 지도 앱을 기반으로 내비게이션은 생각보다 잘 작동하는 편입니다. (사실 잘 안될 것으로 예상했습니다.) 목적지를 검색하고 안내를 설정하면 차량 중앙 화면에 목적지까지 최적화된 경로가 나타나며 음성 안내를 시작합니다. 내비게이션이 아닌 다른 기능을 실행 중이더라도 화면 상단의 토스트 팝업과 음성으로 경로 안내를 받을 수 있습니다.


내비게이션 기능 음성과 TTS 시나리오


하지만 카플레이의 내비게이션은 기존의 타 내비게이션 서비스(e.g. 티맵, 카카오 내비 등)에 비하면 치명적인 단점이 있습니다. 사람들이 자동차 내비게이션을 사용하는 데에 있어서 가장 중요하게 생각하는 사항은 다음과 같습니다.


1. 얼마나 정확하고 신속하게 최단 경로를 탐색하고 안내하는가?

2. 실시간 교통상황을 반영하여 사용자에게 잘 제공하는가?


카플레이의 내비게이션 서비스는 위의 2번째 사항은 제공하지 않습니다. 또한 과속카메라 안내와 과속 방지턱 안내, 차선 안내와 같은 세부적인 사항들도 빠져있습니다. 따라서 이미 이러한 정보들이 담겨있는 내비게이션에 익숙해진 한국 사용자들에게 좋은 이용 경험을 선사하기에는 힘들어 보입니다. 한국을 방문하는 외국인들의 경우에는 익숙한 애플의 인터페이스로 길 안내를 받으며 사용할 것 같은 느낌일 것 같습니다.


통화 기능

통화 기능은 두 손을 자유롭게 움직일 수 없는 주행 상황에서 필요한 기능 중 하나입니다. 이미 타 차량 브랜드에서도 블루투스 연결을 통해서 제공되고 있는 부분(e.g. 차량 내 Hand-free 음성인식 통화 서비스)이지만 카플레이의 통화 기능은 시리를 통해서 보다 빠르고 주행에 최적화된 경험을 제공합니다.

통화 수신의 경우에는 운전대의 물리 버튼을 누르거나 화면상의 통화 버튼을 누르면 바로 통화가 연결됩니다. (통화 수신음이 울릴 경우 "전화 받아줘" 와 같은 음성 제어는 불가능합니다)

통화 발신의 경우에는 연락하고자 하는 대상자를 탐색, 선정, 발신 3단계를 거치게 됩니다. 물론 화면을 선택해서 연락처를 탐색하고 누르는 것도 가능하지만, 주행 상황을 방해받지 않으며(화면을 보지 않고도) "OOO에게 전화 걸어줘"와 같이 음성 제어로 전화를 걸 수 있습니다.


통화 기능 음성과 TTS 시나리오


위와 같이 일반적인 통화 발신의 상황도 있지만 예외의 상황도 종종 발생하곤 합니다.

시리가 잘못된 연락처 명을 인식할 수도 있고, 사용자의 아이폰 연락처 상의 동명이인 또는 비슷한 이름에 대한 다수의 연락처 검색 결과가 나올 수 있습니다. 이 경우, 시리가 발신 요청한 연락처를 재확인하거나 다수의 검색 결과들을 읽어주고 화면으로 나타내면서 사용자가 유연하게 대처할 수 있도록 돕습니다. 그럼에도 사용자는 자칫 잘못된 통화 연결을 실행할 수도 있기 때문에 신중하게 검색 결과를 확인하고 선택하거나 사전에 미리 아이폰 속 연락처명을 명확하게 저장해 둘 필요가 있습니다. 가령, '김민수'라는 동명이인들을 똑같은 '김민수'로 연락처에 저장해두었고 카플레이에서 해당 인물에게 발신하게 된다면 곤란한 상황에 직면하게 될 것은 불 보듯 뻔합니다.


SMS 기능

카플레이의 SMS 기능은 차량 주행 환경에 최적화된 기능 중 하나입니다. 앞서 잠깐 언급한 바와 같이 화면으로 메시지를 확인하고 작성하는 것은 불가능하고 시리와의 음성 인터랙션으로 거의 모든 태스크를 수행하여야 합니다. 기존의 아이폰의 시리를 통해서 SMS를 수신 확인하고 답신했던 경험이 있는 사용자라면 보다 수월하게 이용이 가능합니다.

SMS를 수신하는 경우에는 "메시지 확인해줘" 또는 "문자 읽어줘"와 같은 음성명령으로 실행할 수 있으며, 친절하게도 시리는 가장 오래된 수신 문자 순으로 날짜, 발신자, SMS 전문을 순차적으로 읽어줍니다. 만약 특정 대상에 대한 수신 문자만 확인하고 싶은 경우에는 "OOO에게 온 문자 읽어줘" 와 같이 명령하면 됩니다. 종종 장문의 광고성 문자의 전문을 그대로 읽어 당황스럽게 만드는 경우도 있지만, 다음 명령을 입력하거나 중단시키면 그만입니다.


SMS 수신/답신 기능 음성과 TTS 시나리오


SMS를 새로 작성하거나 발송하는 경우도 위와 같은 맥락으로 "(특정 대상) 메시지 작성"처럼 음성명령을 넣으면 됩니다.

아쉽게도 카카오톡 등 메신저 앱들은 카플레이에서 지원하지 않습니다. 가까운 미래에 카플레이 역시 카카오톡을 지원하게 된다면, 마치 '카카오 미니'에서의 경험을 차 안으로 그대로 가져올 수 있지 않을까 싶습니다. (카카오에서 출시한 AI 스피커 '카카오 미니'의 경우 음성으로 카카오톡 메시지를 수신하고 작성하는 것이 가능합니다.)


엔터테인먼트 기능 (오디오앱)

사용자가 아이폰에서 추가했던 미디어 콘텐츠들 역시 카플레이 환경에서 그대로 실행할 수 있습니다. 'iTunes'를 통해 아이폰의 음악 보관함에 풍부한 음악을 채워 놓은 사용자라면 꽤나 유용하게 사용이 가능합니다. 시리를 통해서 기능들을 실행시키거나 콘텐츠를 선택하고 제어하는 것 역시 가능합니다. 또한 카플레이에서는 '지금 재생 중(Now Playing)'이라는 별도의 앱을 통해서 현재 사용 중인 오디오 콘텐츠로의 진입을 빠르게 도와줍니다.

앞서 말한 바와 같이 카플레이는 주로 오디오 청취를 목적으로 하는 3rd-Party 앱들을 제공합니다. 대표적으로 팟캐스트와 라디오 앱이 있습니다.

음악 및 미디어콘텐츠 기능 음성과 TTS 시나리오


멜론과 벅스, 네이버 뮤직 등 음악 스트리밍 앱의 경우도 카플레이 환경에서 실행할 수 있습니다. 다만 이와 같은 앱들은 각각의 음악 콘텐츠들을 음성으로 제어하는 것은 불가능하고 화면을 통해 콘텐츠를 제어해야 한다는 단점이 있습니다.



글을 마치며...

제가 사용한 카플레이는 주행 환경과 안전을 고려한 비교적 나쁘지 않은 사용 경험을 제공했습니다. 저와 같이 운전에 미숙한 사람도 원활하게 이용할 수 있도록 음성인식 서비스인 시리를 지원하는 것이 큰 이점이었습니다. 화면을 보지 않고 음성 안내를 받으며 기능들을 실행&제어할 수 있었기에 더욱 운전에 집중할 수 있었고 마치 비서가 옆에서 대신 기능들을 수행하는 기분까지 들게 해주었습니다. 또 차량 내의 소음이 있을 때도 저의 음성을 잘 인식하고 해당 기능들을 수행해주었습니다.

그러나 궁극의 드라이빙 파트너가 되기에는 부족하다고 느꼈습니다. 원하는 모든 기능들을 완벽하게 지원하지는 못할 것이라 예상은 했지만 불가능한 기능들이 생각보다 많았습니다. 내 아이폰에 설치된 앱의 수는 100개가 넘지만 카플레이에서는 '멜론'을 포함한 고작 몇 개의 3rd-Party 앱만이 모습을 드러냈던 것도 아쉬운 점 중 하나였습니다. 시리의 음성인식 기능 역시 오류 상황들을 보여주는 경우가 있었고, 알아들을 수 있는 명령어의 수가 제한적이어서 오히려 기능 수행에 대한 명령어를 학습해야 할 필요성까지 느끼게 해주었습니다. 아직 한국어 지원이 부족한 것인지 "이전", "다음", "꺼줘", "경로 안내해줘" 등과 같은 기본적인 명령어도 인지하지 못한다는 점은 조금 실망스러웠습니다. 알고 쓰면 유용한 드라이빙 파트너가 적절한 표현이지 않을까 합니다.

많은 타사의 서비스를 사용해보지 못했기에 다른 서비스들과 좀 더 면밀하게 비교 분석하진 못해서 아쉬웠습니다. 다만, 이 글을 통해 독자들이 애플의 카플레이에 조금 더 친숙해질 수 있는 계기가 되길 바랍니다. 시장의 판도는 급변하고 있습니다. 구글의 안드로이드 오토는 물론 네이버의 어웨이, 신형 제네시스에 탑재되는 카카오 아이, 티맵 등 다양한 음성인식 기반의 차량 인포테인먼트 서비스가 하루가 멀다 하고 출시되고 상용화에 도전 중입니다. 카플레이 역시 지속적인 업데이트를 통해 개선되고 있습니다. 3rd-Party 애플리케이션의 증가, 음성 인식률에 대한 이슈는 시간이 문제라고 생각했습니다. 분명한 건 다가오는 스마트 시대에는 운전자 중심의 맞춤 서비스를 제공하는 커넥티드카를 넘어 자율 주행 자동차의 시대가 올 것이고, 그 스마트카의 중심에서 시리와 카플레이가 중요한 Hub 역할을 수행하게 될 것이라고 기대해봅니다.




[참고##음성인식##]



팀블로그 pxd Story 구독 방법  블로그 글은 각 개인의 생각이며 피엑스디와 다를 수 있습니다.


Trackback 0 Comment 0
Ad Test...
2017.12.14 07:50

VUX in car 2편 - 기존의 자동차 음성 명령과 자동차 x AI 스피커의 차이점


올해 하반기 출시된 제네시스 G70에 카카오 I가 장착되어 집에서 사용하던 AI 스피커를 자동차에서도 사용할 수 있게 되었습니다. 모터쇼에서 NUGU, Giga Genie를 결합한 컨셉 자동차를 발표했으니 곧 기아, 현대 자동차에서도 AI 스피커를 사용할 수 있을 텐데요. 유투브에서 NUGU mini나 Amazon dot과 같이 서브 라인으로 출시한 AI 스피커를 자동차에서 시연하는 영상을 심심치 않게 볼 수 있는걸 보면 자동차와 AI 스피커의 결합은 이미 스마트 스피커가 나타날 때부터 시간문제였던 것 같습니다.

자동차에서 AI 스피커를 이용해 음악을 재생하거나 뉴스를 듣는 행동은, 이미 사용하고 있는 음성 인식 기능과 크게 다르지 않아 보이기 때문에 AI 스피커가 힘들게 장착해서 쓸 만큼 유용한 것인지 의문이 들곤 했습니다. 그럼에도 자동차에 결합된 스마트 스피커 시장이 활발한 이유는 무엇일까요? 이번 블로깅에서는 자동차가 AI 스마트 스피커 기능을 장착하면 기존의 자동차 음성 인식 경험과 무엇이 달라지는지 이야기해보려 합니다.



자동차의 음성 명령

자동차의 기능을 편리하게 호출하는 기능

자동차를 운전한 경험이 있다면 핸들에 있는 ‘’ 버튼을 본 적 있을 것입니다. 자동차에서 제공하는 Voice command 기능을 호출하는 버튼입니다. Voice command 기능은 운전할 때 자동차와 연결된 기기나 기능들을 음성으로 호출할 수 있는 기능입니다. 버튼을 누르고 음성으로 라디오 주파수를 이야기하면 라디오를 틀어주고, 내비게이션을 켠 상태에서 목적지를 말하면 목적지를 검색할 수 있습니다. 스마트폰을 연결하면 통화를 하거나 음악을 들을 수 있습니다.

자동차와 관련된 기능을 음성으로 편리하게 사용할 수 있지만, 자동차와 연결된 기능만 사용할 수 있는 단점이 있습니다. 즉, 통화 등 스마트폰과 관련된 기능을 사용하려면 스마트폰을 연결하는 셋팅 과정을 거쳐야 사용할 수 있습니다.


화면의 터치 인터랙션을 대신하는 보조 기능

운전을 하면서 내비게이션의 목적지를 터치하는 행동은 운전 베테랑이라도 시선을 뺏기게 됩니다. 안전을 위해 잠깐 차량을 정차하게 되는 신호 대기 순간에 목적지를 한 글자씩 입력하게 되기 때문입니다. 이런 상황을 개선하고자 내비게이션은 음성 지원 검색을 지원합니다. “신사주유소”를 찾을 때, ‘ㅅㅅㅈㅇㅅ’ ‘신사주유소’ 라 입력하지 않고 음성으로 “신사주유소”를 말하면 목적지가 입력 영역에 표시됩니다.

목적지를 입력하는 방법을 음성으로 대신할 뿐, 목적지를 설정하는 과정은 터치 인터랙션과 동일합니다. 음성 인식 버튼을 누른 뒤 목적지를 말하고 화면에서 ‘검색’을 누르거나, 다시 음성 인식 버튼을 눌러 “검색”이라고 말해야 합니다. 만약 평소 말하는 대로 “신사주유소 찾아줘” / “신사주유소로 설정해줘”라고 말하게 된다면 목적지 입력 영역에 “신사주유소 찾아줘 / 설정해줘”가 모두 입력됩니다.

또, 음성으로 목적지를 설정하는 기능은 내비게이션이 실행된 상태에서 목적지를 설정하는 과정의 화면에서만 사용할 수 있습니다. 음성 인터랙션은 주행 안전을 위해 터치 인터랙션 대신 사용하는 보조 기능으로서 제공됩니다.


음성 명령을 하려면 어떤 버튼이 음성 명령이 되는지 말풍선 모양을 확인해야 합니다.

출처: Hyundai: Voice command



자동차 환경에서의 AI 스피커 음성 경험

자동차의 기존 음성 명령이 화면을 보조하는 수단으로 제공된다면, AI 스피커는 진짜 음성 중심의 경험을 제공합니다.

복잡한 연결 과정 없이 즐기는 확장된 음성 서비스

자동차에서 음성 명령 기능을 사용하기 어려운 이유 중 하나가 복잡한 연결 과정 때문인데요. LTE 기반의 AI 스피커를 장착하면 복잡한 연결 과정 없이 ‘Voice command’ 버튼만 눌러서 바로 음성 명령을 사용할 수 있습니다.

또, AI 스피커 덕분에 기존의 자동차와 스마트폰에 국한되었던 기능에서 벗어나 더욱 다양한 음성 서비스를 즐길 수 있습니다. 집에서 듣던 플레이리스트를 그대로 들을 수 있고, 앞으로 30분 뒤 도착 시각에 맞추어 피자를 주문할 수 있습니다. Iot 미래 시나리오 워크샵의 단골손님이었던 도착 시각에 맞춰 집 안의 환경을 세팅하는 과정을 경험할 수 있습니다.


화면을 벗어난 음성 중심 인터랙션

기존의 음성 경험과 가장 큰 차이점은 주행 안전을 방해하던 화면에서 벗어날 수 있는 점입니다. 앞에서 언급한 것처럼 기존의 음성 경험은 화면 내의 조작을 편리하게 하는 음성 인터랙션에 머물러 있었습니다. 화면으로 분산되는 시선을 주행에 집중하기 위해 음성 명령을 사용한 것임에도 결국 화면을 보면서 음성 조작을 하는 모순적인 상황이 발생했습니다.

반면, AI 스피커를 이용한 음성 명령은 실제 사람과 대화하는 방식으로 음성 인터랙션이 이루어져 화면을 훨씬 덜 볼 수 있습니다. 예를 들면 AI 스피커에게 목적지 검색 요청 시, “신사주유소 찾아줘”라고 말하면 AI 스피커는 바로 목적지 검색을 수행합니다. 목적지를 검색하기 위해 화면의 ‘검색’ 버튼을 찾거나 다시 voice command 버튼을 눌러 “검색”이라고 말할 필요가 없게 됩니다.


결론: 음성 명령이 아닌 음성 대화

기존의 voice command 기능을 보면 사용자는 “신사주유소” / “검색” / “음악 재생” 등 명사 위주로 자동차에 명령합니다. Task 수행 단계 내에서 음성 인터랙션이 있기 때문인데요. 앞에서도 보았듯이 AI 스피커의 음성 인터랙션은 Task 수행 단계 없이 바로 기능 수행이 가능합니다. 그래서 “신사주유소 검색해줘” / “소녀시대 노래 틀어줘” 등의 명령이 가능한 것인데요. 아직 자동차에 장착된 AI 스피커를 보면 명령 -> 대화로 이동하는 과도기에 있는 것 같습니다. 미래의 자동차는 결국 화면 도움 없이도 만족스러운 음성 인터랙션 경험을 제공해야 할 것입니다.




[참고##음성인식##]

팀블로그 pxd Story 구독 방법  블로그 글은 각 개인의 생각이며 피엑스디와 다를 수 있습니다.


Trackback 0 Comment 0
Ad Test...
2017.12.11 07:50

VUX in car 1편 - VUX, 멀티태스킹, 그리고 커넥티드 카

음성 UX에 적합한 시나리오는 무엇일까

최근 음성인식 솔루션의 춘추전국시대라고 해도 과언이 아닐 정도로 다양한 서비스가 쏟아져 나오고 있습니다. 2011년 애플이 아이폰 4S와 함께 시리를 발표한 이후 음성 비서에 대한 인식이 대중적으로 자리 잡게 되었는데요. 이후 아마존의 Alexa, 국내에서는 SKT의 NUGU를 필두로 물리적인 형태를 갖춘 스마트스피커 시장이 활발해지면서 음성 비서에 대한 서비스 제공자들의 고민이 더욱 다양해지는 것 같습니다. 스마트스피커 시장에서는 아마존의 경우 커머스, 라인의 경우 정보검색 및 캐릭터(?) 등 각 기업이 보유한 특화 서비스를 강조한 제품을 선보이고 있으나, 아직 이전 대비 음성 UX의 경험을 차별화한 서비스는 없다고 느껴집니다. 저는 회사에서 음성 UX와 관련된 몇 번의 프로젝트를 거치면서, 아래와 같은 의문을 지울 수 없었습니다.


'말로 하는 것이 한 번의 터치 조작보다 과연 얼마나 쉬울까?'

'화면을 보면 한 번에 알게 될 내용을 음성 안내로 들어야 한다면 답답하지 않을까?'



아직은 터치 조작에 익숙한 현대인으로서 새로운 조작 방식을 접하게 되어 생기는 당연한 고민일지도 모르겠습니다. 그러나 음성만을 사용하다 처음으로 화면을 선보인 에코 쇼를 보면 스마트스피커의 선두 주자인 아마존도 비슷한 고민을 하는 것 같습니다.

이러한 고민의 답을 찾기 위해서는 음성 인터랙션의 context와 contents, 두 가지 방향의 접근이 필요합니다. 장소, 환경 등의 맥락(context)으로 인해 음성 인터랙션을 사용하기에 적합한 상황이 있고, 음성으로 사용할 때 더욱 효과적인 태스크나 콘텐츠(contents)가 있을 것입니다. 현재 음성 서비스의 제공자들은 기술적 관점에서 제공 가능한 서비스를 다양하게 붙여 보는 방식을 취하고 있지만, 결국 사용자가 음성 인터랙션에 흥미를 잃지 않고 적극적으로 활용하기 위해서는 가장 적합한 시나리오를 제공해야 한다고 생각합니다. 이 글에서는 먼저 context의 관점에서 접근해 보려고 합니다. 음성을 사용해서 조작할 때 가장 효과적인 상황은 언제, 어디일까요?



Multitasking

위의 질문에 대한 해답을 고민하던 중, 같은 질문에서 시작된 한 아티클 [What voice UI is good for(and what it isn't)]에서 'place-ona(place+persona)' 라는 재미있는 개념을 알게 되었습니다. 'place-ona'는 <사용자 경험 스케치>의 저자 빌 벅스튼이 제시한 개념으로, 음성 인터랙션은 사용자의 성향보다는 맥락에 따라 필요성이 다르기 때문에 장소에 따라 인터랙션의 행태가 결정된다는 것인데요. 아티클에서는 이에 대한 예시로 도서관, 요리 중, 시끄러운 클럽, 주행 중 이렇게 시각 및 청각적 제약이 서로 다른 4가지 place를 놓고 음성 인터랙션이 효과적인 상황을 비교해 보았습니다. 결론부터 말하자면 음성 인터랙션이 더 우세한 상황은 두 가지 조건이 일치하는 경우라는 것을 알 수 있습니다.


1. 사용자의 시선 혹은 두 손이 부자유한 상황

2. (당연하지만) 청각적 방해가 없는 상황


1번의 경우 시선과 두 손의 제약 상황은 곧 사용자가 무언가 다른 일을 하는 것으로 해석할 수 있습니다. 반면, 모바일이나 태블릿 등 스크린 디바이스를 얼마든지 사용할 수 있는 환경에서 음성으로 조작하는 시나리오를 상상해보면 현재로선 그다지 와닿지 않는데요. 정보량에 상관없이 효율적이고 즉각적으로 처리할 수 있는 화면에서의 경험이 우리에게 아직은 너무 익숙하기 때문입니다. 위에서 언급했듯이 음성 인터랙션으로 조작할 때 특히 효과적인 contents가 있겠지만, 보편적인 상황을 생각하면 화면 인터랙션의 익숙함, 효율성 등의 요인으로 음성 인터랙션만을 단독으로 사용하는 씬을 상상하기는 어렵습니다. 결과적으로 현재의 음성 인터랙션은 '제약이 있는' 멀티태스킹 상황이 가장 효과적입니다. 특히 요리나 주행처럼 익숙한 일이면서도 수행 도중에 레시피나 교통상황 등의 정보나 콘텐츠가 필요한 경우 더욱 유용하겠죠.

이번 시리즈에서는 커넥티드 카에 탑재되는 VUX 서비스를 설계한 경험을 바탕으로 멀티태스킹의 하나인 주행 중 음성 인터랙션에 대해서 알아볼 텐데요. 이번 글에서는 주행 중 상황의 특성과 인터랙션 설계 시 고려해야 할 점을 짚어보겠습니다.



주행 중 인터랙션의 특징 : 대충 듣고 쓱 훑어본다

주행 중 운전자의 시선은 매우 바쁘다


차량 내에서의 음성 인터랙션은 일반 스마트스피커를 사용할 때와 어떻게 다를까요?

먼저 인터랙션에 충분히 집중할 수 있는 가정 내 환경과 달리, 주행 중에는 운전이 메인 태스크이고 다양한 시각적∙청각적 정보를 확인해야 하기 때문에 인터랙션을 방해받거나 충분히 집중하기 어렵다는 특징이 있습니다. 운전하며 조수석에 앉은 친구와 대화를 나누어본 경험을 떠올려 보면, 복잡한 교통상황에 의해 대화를 방해받았던 적이 있을 것입니다. 이처럼 완전히 집중하기 어려운 특성 때문에 사용자는 음성 안내의 전체를 경청하기보다는 자신이 필요한 정보를 선별적으로 캐치하고자 합니다.

또, 주행 중 사용자의 시선은 전방을 주시하고, 손은 핸들에 있기 때문에 화면 사용이 자유롭지 않다는 특징이 있습니다. 운전 중 내비게이션으로 목적지를 검색했는데 결과가 여러 개 나온 경험이 있지 않으신가요? 목적지를 잘못 선택하면 안 되지만, 여러 개의 항목을 비교해보기 위해 찬찬히 읽어보고 정확히 선택하기 어려워 여러모로 신경 쓰이는 상황이죠. 요즘의 운전자들은 차내에서 스마트폰을 거치하여 사용하기 때문에 운전 중 화면 사용이 비교적 익숙한 편이지만, 그럼에도 화면 조작은 정확도가 떨어지며 인터랙션의 흐름을 이어가기 어렵습니다. 사실, 주행 상황에서는 안전을 위해 지양해야 합니다. 따라서 익숙해진다면 주행 중에는 운전에 방해를 주지 않는 음성 인풋이 화면보다 훨씬 편리할 수밖에 없습니다.

위와 같이 주행 중이라는 특수한 맥락이 인터랙션 방식에 영향을 주기 때문에, 차량 내에서 사용하는 VUX를 설계하기 위해서는 이러한 맥락에 대한 이해가 필요합니다. 이제 차량 내 음성 인터랙션이 지향해야 할 방향을 다음 질문을 통해 알아보겠습니다.


1. 주행 중 음성으로 의사결정은 어떻게 해야 할까?

2. 주행 중 음성과 화면이라는 2가지 채널을 어떻게 활용해야 할까?



의사결정을 줄이되, 꼭 필요한 정보는 생략하지 않기

사용자 : 볼빨간 사춘기 노래 틀어줘.

AI : 볼빨간 사춘기의 인기곡 '우주를 줄게'를 들려 드릴게요.


사용자 : (민지한테 늦는다고 전화해야겠다) 김민지에게 전화 걸어줘.

AI : '김민지'로 등록된 연락처가 3개 있네요. 가장 최근에 전화한 사람에게 걸어 드릴게요.

사용자 : 어.. 잠깐만...

AI : RRRR...


주행 중 사용자에게 의사결정을 맡기려고 할 때는 상황에 대한 판단이 중요합니다. 위에서 언급했듯 주행 중 인터랙션은 멀티태스킹이기 때문에, 인터랙션에 100% 집중하기는 어렵습니다. 따라서 사용자가 음성으로 간단한 태스크를 실행하려고 할 때 사소한 부분까지 의사를 물어보고 진행하려 하면 사용자를 번거롭게 만들 수 있습니다. 음악이나 팟캐스트 재생 같은 경우, 디테일을 더 묻지 않고 로직에 따라 적합한 콘텐츠를 재생한다면 태스크를 간단하게 만들면서도 사용자의 의도에서 크게 벗어나지 않는 결과를 가져다줄 수 있습니다. 다만, 전화를 걸거나 목적지를 변경하려는 상황은 조금 다릅니다. 전화나 목적지는 잘못 설정했다가는 굉장히 난감해질 수 있기 때문에, 사용자의 정확한 의사결정을 필요로 하는 태스크입니다. 주행 중 음성 AI가 제멋대로 내 친구가 아닌 이전 거래처 사람에게 전화를 걸거나, 스타필드 하남점에 가려고 했는데 고양점으로 자동 선택해서 안내한다면 그 날을 끝으로 음성 조작은 사용자에게 영영 버려질 확률이 높습니다. 정확도에 대한 민감도가 높은 상황에서는 사용자의 결정에 따라 정확한 조작이 중요하기 때문에, 필요한 정보를 충분히 제공하여 디테일을 확인할 수 있도록 해야 합니다. 요약하면, 주행 중에는 되도록 의사결정을 줄이는 것이 바람직하지만 정확도에 민감한 상황이라면 꼭 필요한 정보를 모두 제공하여 사용자가 결정하도록 해야 합니다.



사용자와 음성으로 핑퐁하고, 꼭 필요한 경우에만 화면을 보여주기

사용자 : 서울시청으로 안내해줘.

AI : '서울시청'에 대한 검색결과가 20개 있습니다. 서울특별시청, 서울시청신청사 주차장, 서울특별시청 서소문청사, 서울시청 서소문별관 주차장, 서울특별시청 서소문청사 서울시의회별관, 서울시청 시민청 태평홀, 서울특별시청 서울시청 별관2동, 서울시청 다목적홀, ... 어디로 안내해 드릴까요?

사용자 : (내가 어딜 가려고 했더라..)


위에서 살펴보았듯이, 주행 중에는 음성 인터랙션이 화면에 비해 주의를 덜 끌기 때문에 훨씬 유리한 위치를 점하고 있습니다. 그러나 서비스가 고도화되고 보다 풍부한 기능을 제공하고자 한다면 곧 음성의 한계와 마주하게 되는데요. 위의 예시처럼 내비게이션이나 항목의 리스트처럼 시각적 인지에 익숙한 정보의 경우가 그렇습니다. 내비게이션의 경우 거리와 방향은 화면을 보고 인지하는 것이 훨씬 효율적이고, 정보를 인지하는 시점이 주행 상황과 밀접한 연관이 있기 때문에 안전한 주행을 위해 반드시 시각 정보가 동반되어야 합니다. 또 사용자에게 다양한 옵션을 제공해야 할 경우 옵션 리스트를 화면으로도 제공하여 음성 인터랙션을 보조할 수도 있습니다. 인터랙션의 일관성을 유지하는 것은 중요하지만, 사용자에게 중요한 정보를 전달해야 할 때 비효율적인 방법을 고집하는 것은 좋은 인터랙션이라고 하기 어렵습니다. 따라서, 주행 환경에서 음성 인터랙션을 주로 사용하되, 음성으로 전달하기에 한계가 있는 경우 화면을 활용하여 사용성을 높일 수 있습니다. 다만 사용자가 혼란스럽지 않도록 화면은 음성을 보조하는 서브 채널로 사용해야 하며, 사용자의 음성 질의나 명령에 화면으로 대답하는 일은 없어야 합니다.



마치며

이 글에서는 음성 UX에 가장 적합한 멀티태스킹, 그리고 대표적 예시인 주행상황에서의 음성 인터랙션은 어떻게 이루어져야 하는지 알아보았습니다. 어떻게 보면 제약이 많은 상황의 인터랙션을 설계하는 것은 매우 재미있기도 했지만, 그렇기 때문에 사용자가 어떻게 받아들일지에 대해 심도 있게 고려해야 하는 과정이었습니다. 다음 글에서는 이러한 음성 인터랙션이 기존의 차내 음성 검색 경험과 비교하여 어떤 차이점이 있는지 소개하겠습니다.



[참고##음성인식##]



팀블로그 pxd Story 구독 방법  블로그 글은 각 개인의 생각이며 피엑스디와 다를 수 있습니다.


Trackback 0 Comment 0
Ad Test...
2017.10.23 07:50

UX의 미래는 여기에 있다 - UX for Next Billion Users

가끔 UX에 관련한 토론회 같은데 가면 사람들이 "UX의 미래는 무엇일까요?" 같은 황당한 질문을 한다. 내가 어떻게 알겠는가? 그리고 사실 별로 궁금하지도 않다. 그것보다는 "내 미래는 어떻게 될까"가 훨씬 궁금하고 알고 싶다. 그래도 전문가로서 불려갔으니 "하나도 안 궁금하고, 내 미래가 진짜 궁금함" 이렇게 답변할 수는 없다.

그래서 항상 그런 종류의 질문에 답변을 준비해 간다. UX의 미래는 어디에 있을까?


영화속 미래 UX와 AI 

UX의 미래라면 어떤 그림이 떠오르는가? 

많은 사람들이 마이너리티 리포트의 한 장면을 떠올린다. 그러나 실제로 전문가들이 생각하는 UX의 미래는 이런 것과는 거리가 멀다. 그렇다면 어떤 방향일까?


UX의 미래는 톰 크루즈의 손에 있지 않다.


얼마전 ZDNet에는 "AI는 새로운 UI다"라는 기사가 실렸다.

엑센츄어의 기술트렌드 보고서를 인용한 기사에서는, 인공지능(AI)기술의 저변이 늘어나게 된 핵심 이유 중 하나가 이들이 사용자들과 직접 맞닿아 있는 사용자 인터페이스(UI)로서 새로운 사용자 경험(UX)을 제공하고 있기 때문이라는 분석을 인용했다.

먼저 5년 내 절반 이상 사용자들이 기업들의 전통적인 서비스 대신 AI 기반 서비스를 선택하게 될 것이다. 또 7년 내에 대부분 인터페이스가 화면을 갖지 않게 되고 일상 업무와 통합될 것이다. 끝으로 10년 뒤에는 디지털비서가 전면적으로 보급돼 임직원들이 365일/7일/24시간 생산성을 유지하도록 지원할 것으로 전망된다.

사실 대부분의 인터페이스가 화면을 갖지 않게 될 것이라는 전망은 동의하지 않는다. 화면 인터페이스는 화면 인터페이스대로 자기가 가장 잘 하는 분야로서 자리를 찾을 것이다. 어쨌든 형태도 많이 바뀔 것이고 비중도 지금보다 심각하게 줄어들 것임은 틀림없다. 

그런데 이런 예측은 이제 막 나온 애기는 아니다.


픽셀의 종말

2016년 1월 Fabricio Teixeira와 그의 팀은 2016년에 유행할 UX 트렌드에 대해서 발표하면서 그 첫 번째 특징으로 픽셀의 종말에 대해서 이야기했다.

The State of UX in 2016

우리는 지금도 열심히 UX 디자인을 하고 있지만 Flat 디자인이라는 트렌드와, 모바일이라는 플랫폼, 그리고 결국 모두 비슷한 시각 언어를 사용하는 탓에 거의 모든 디자인이 서로 비슷해 보인다는 점을 지적하면서, 화면에는 더 이상 디자인할 것이 많지 않다고 주장했다. 어쩌면 우리가 알고 있는 어플(앱 App)이라는 것도 사라질지 모르고, 우리는 대화형 인터페이스나 다른 종류의 방식을 통해서 더 이상 픽셀을 디자인하지 않는 시대에 살지 모른다는 주장이다.

특히 그는 세 번째 특징에서 "Designing Around Time"을 주장하면서, 우리는 더 이상 공간상에 디자인하기 보다는 시간상에 디자인을 한다고 말한다. 길에 서면 택시를 부르는 인터페이스를 띄우고, 드라이버를 기다릴 땐 드라이버 정보를 보여주며, 여정이 끝나면 기사에 대해 평가하고 결제하는 우버의 인터페이스처럼, 우리는 시간의 흐름에 맞는 인터페이스를 보여주어 자연스러운 UX를 만드는 것이, 공간을 배치하는 것보다 훨씬 중요한 시대에 살고 있다.

예전에는 앱을 처음 만든다든지 개편한다든지 하면 '메인 화면을 어떻게 만드느냐'에 집중했다면, 이제 UX 디자이너들은 첫 일주일을 어떻게 만드느냐를 고민해야 한다. 처음 사용자들이 우리 앱에 들어와서 어떤 정보를 접하고, 나가야 하며, 언제/왜 두 번째 방문을 하도록 설계해야하고, 그렇게 첫 일주일을 우리 앱의 가치를 느끼면서 쓸 수 있도록 해야 우리의 고객이 되기 때문이다.

특히 시간에 대한 설계에서는 대화형 커머스라든지, 빅데이터에 의한 맞춤형 제안이라든지, 사용자의 주요 상황에 따른 적절한 푸시 노티피케이션 같은 부분들이 중요해지므로, 인공지능이나 데이터 분석이 더욱 중요해 지게 된다.

그런데 이런 얘기를 하면, 사람들은 여전히 'UX의 미래'라면 뭔가 굉장히 첨단스러운 것, 뭔가 굉장히 미래스러운 것을 생각하게 된다. 하지만 내 생각은 다르다.


스마트폰의 다음 세대

2017년 8월 Wall Street Journal에서는 지금까지 우리가 스마트폰을 대략 10억대 쯤 만들고 팔았는데, 앞으로 다음 10억대는 누구에게 팔 건가?라는 질문을 던지면서 다음과 같은 기사를 내 놓았다.

The End of Typing: The Next Billion Mobile Users Will Rely on Video and Voice

지금까지는 가난과 낮은 교육 수준으로 문맹률이 높은 사람들은 인터넷 사용과 거리가 멀었는데, 저가 스마트폰의 보급, 저렴한 데이터 요금제 출시 덕분에 인터넷을 태어나서 처음으로 사용할 수 있게 되었고 여기에 중요한 것은 직관적인 UX를 가진 앱들이다.


그렇다. UX의 미래는 이 사람, 인도 철도 노동자의 손에 있다.


지금까지 스마트폰을 구입했던 이전 10억명과 달리 앞으로 10억명의 인터넷 이용 행태는 타이핑, 이메일 등 문자가 아니라, 음성, 영상, 그리고 그림으로 소통하는 것이다. 검색하고 통화할 때 뿐만 아니라, 소셜 서비스나 상거래 서비스까지도 모두 이러한 방식이 주류를 이루게 될 것이다. 아니 그럴 수 밖에 없다. 글을 모르기 때문에.

예를 들어 인도의 인구는 13억 명이지만, 이중 4억이 스마트폰을 사용하고 있다. 2015년부터 10-30만원대의 스마트폰이 쏟아져 나오면서 이들은 처음 IT 기기라는 걸 사용해 보고 있다. 매달 2천만명이 인생에서 처음으로 스마트폰을 구입하고 거기서 유투브로 동영상을 보고, 셀카(Selfie)를 찍고, 통화를 하고, 음성으로 검색을 한다. 우리가 처음 이런 일들을 하던 때의 경이로움을 생각하면, 이들이 돈이 없을 때 콜라를 사는 대신 통신 요금을 더 지불하는 것이 이해가 간다.

시골 소비자들이 수중에 돈이 없어 선택해야만 하면 콜라를 사기 보단 핸드폰 통신 요금을 충전한다.

Whatever little money was in their hands, rural consumers preferred to spend on mobile recharge rather than colas. Rural India cuts down on discretionary spends to save for internet and mobile talk-time packs 2016.7 Economic Times

위 WSJ 기사에서는 구글이 제공하는 기차역 주변의 무료와이파이를 이용하여 철도 주변 노동자들이 스마트폰을 즐기고 있으며, 아울러 이런 사람들이 편리하게 일용직을 찾을 수 있는 스마트폰 앱도 보급되고 있다고 전한다. 이런 사람들이 앞으로 10억명이고, 따라서

* 지금보다 훨씬 단순한 이미지 중심 UX, 

* 화면이나 공간에 펼쳐지는 UX가 아닌 시간에 펼쳐지는 UX, 그리고

* 글자 중심이 아닌 음성/비디오 중심으로 이루어진 UX

가 이들에게 핵심이 될 것이다.

대화형 UX라든지, AI UX라든지 하는 것들이 선진국 사용자, 텍스트 중심의 사용자들에게 주는 이득은 있기는 하겠지만 매우 적다. 이미 현재의 화면에서도 크게 불편함을 느끼지 않기 때문에 이러한 미래형 UX는 선진국에서는 실험실의 장난감을 벗어나기 힘들다. 하지만 글을 읽지 못 하는 다음 10억명의 스마트폰 사용자들은 이런 UX가 아니면 쓸 수가 없을 것이기 때문에 이런 '미래형 UX'는 남아시아의 나라들에서 꽃이 필 확률이 매우 크다. UX의 미래는 SF 영화에 있는 것도 아니고, 선진국 실험실에 있는 것도 아니다. 톰 크루즈의 손에 있는 것이 아니라 인도 철도 노동자의 손에 있다.

[참고] UX for Next Billion Users by Google
[참고] 문맹자들도 쓸 수 있는 쉬운 금융앱 UX를 연구하는 My Oral Village, Inc.
[참고] 인도네시아에서 앱으로 교통비 바가지 면하기
[참고] [박성연의 비영리를 위한 혁신] 생존을 위한 MP3 백과사전, 유리두(URIDU)


한국에서는?

한국에서도 여전히 더 쉬운 UX를 필요로하는 다양한 계층이 있다. 대표적으로 50대 이상의 노안 소비자들인데, 이들은 작은 화면의 텍스트를 불편해하기 때문에 TV 홈쇼핑을 즐긴다. 굳이 읽지 않아도 비디오로 보여주는 형태는 사실 노안 소비자들이 아닌 사람들도 해 보면 편리할 수 있는 방식이지만, 그런 사람들에게 줄 수 있는 이득은 작은 반면 글자를 읽기 괴로운 사람들에게 줄 수 있는 이득은 매우 크다. 

앞으로 모든 쇼핑이 모바일로 넘어간다면, 그리고 젊은 세대들이 그렇듯이 이들도 더 이상 '실시간형 TV'를 보지 않게 된다면 이들은 어떤 식으로 쇼핑을 할까? 기사에 따르면 2015년부터 40-50대의 모바일 쇼핑 이용률이 계속 높은 성장을 하고 있다. 많은 사람들에게 쉬운 비디오로 설득하는 매력적인 판매 방식을 가진 커머스 UX야 말로, 'TV 홈쇼핑'을 대체하는 미래의 UX일지 모른다.

모바일 쇼핑, 40~50대 이용률↑…2차 대전 예고 (2015.4)
티몬, 40대이상 고객 비중 20대 추월 (2016.3)

티몬, 실시간 영상 보며 쇼핑하는 ‘라이브 방송’ 정식 오픈 (2017.8)
- 기존 딜 대비 매출 130배 상승, 구매 전환율 21%를 기록
- 시청자와 실시간 커뮤니케이션 하며 구매 유도

[참고##미래잡담##]
[참고##NBU##]


팀블로그 pxd Story 구독 방법  블로그 글은 각 개인의 생각이며 피엑스디와 다를 수 있습니다.


Trackback 0 Comment 0
Ad Test...
2016.12.15 07:55

[pxd talks 66] 모바일,커머스,시간

지난 2016년 3월, pxd에서는 이재용 대표가 진행하는 사내교육이 있었습니다. “모바일,커머스,시간”이라는 주제로 교육이 진행되었습니다. pxd는 2014년 이후부터 다양한 커머스 프로젝트 경험을 쌓아 오고 있었습니다. 

커머스 프로젝트에서는 “어떻게 웹에서 제공했던 커머스 경험을 모바일로 대체할 수 있는지”혹은 “더 나은 경험으로 발전시키는 방향”을 꾸준히 고민했습니다. 여러 프로젝트를 통해 이재용 대표가 얻은 인사이트를 공유하는 시간을 가졌고 그 내용을 공유합니다.


1. M-Commerce 혁명

M-commerce란 보통 이전의  E-Commerce혁명과 대비적으로 정의한 개념이라고 보면 됩니다. 인터넷이 여러 판매채널(판매자/판매점)에  위치나 크기등 물리적인 제약을 없앤 것으로 공간혁명이라는 점으로 주목을 받았던 시절이 있었습니다. 오프라인이 넘어설 수 없었던 물리적인 제약을 초월한 E-Commerce에서는 최저가, 최단배송시간, 모든제품 갖추기로 시장에서 승부를 볼 수 있었습니다.

그런데 모바일의 등장으로 M-commerce 라는 새로운 패러다임이 시작됩니다. 24시간 켠채로 들고다니는 기기의 등장으로 진정한 개인용 기기가 탄생한 것입니다. 바로 모바일의 등장으로 시간의 제약에서 벗어날 수 있게 되었습니다. 앞서 말씀드린 웹과 는 또다른 차원의 접근성이 완화로 우리는 물리적 한계 뿐만 아니라 시간적 한계를 뛰어넘은 시대에서 살고 있는 것이죠.

이 모바일 커머스의 세가지 특징을 정의해보면,

1) 시간의 즉시성

2) 위치의 접근성

3) 개인화

결국 “언제 어디서나 그 사람에게 딱 맞는 오퍼를 제공할 수 있을까?” 이란 질문이 핵심입니다. 이를 통해 사람들이 자신의 모바일 앱에 어떻게 자주 방문시킬 수 있을지 고민하게 되는 것이지요.


2. M-Commerce UX키워드 : 시간을 설계하라

기획자들이여! 화면에서 벗어나라

많은 기획자들이 화면을 구성하는데 고민합니다. 하지만 모바일 커머스 환경에서는  좀더 입체적으로 화면을 바라볼 필요가 있습니다. 단순한 화면의 공간구성이 아니라 사용자들의 시간을 어떻게 설계해야 하는지 고민해야 하는 시기가 온 것이죠.

예를 들어, 첫화면에 무슨 상품을 넣어야 할까? 고민하기 보다 오늘 앱을 설치한 사람이 왜, 내일 앱에 재 방문해야할지, 고객에게 당장 구매 하라고 다그치기 보다 어떻게 하면 시간을 마술같이 사용해 매출을 높일 수 있는지, 많은 사람에게 팔기보다 어떻게 하면 개개인의 요구를 맞춰 전체 매출을 높일 수 있는지, 좀더 고객의 시간을 이해하고 이용하려는 포인트를 가진 질문이 필요합니다. 이를 좀 더 구체적으로 설명하자면 이벤트커머스, 타임커머스, 대화형 커머스로 사례를 정리할 수 있습니다.


이벤트 커머스

생활의 특정 이벤트를 활용해 자사 앱으로 유입한 고객을 최종목표(판매)까지 연결시키는 커머스를 지칭합니다. 오늘 첫 설치자에게  무엇을 제공할까?라는 관점으로 이해하면 더 쉬울 것 같습니다. 트위터에서 첫 트윗에 5명의 팔로우 대상을 주는 방식과 같습니다. 커머스 앱으로 설명하자면 첫 사용자는 왜 첫 구매를 해야하는지? 첫 사용자는 왜 다음날에 다시 들어와야하는지? 첫 검색/브라우징 이후에 어떤 혜택을 제공할 수 있는지에 대한 고민이 필요한 것이죠.

- 구글 나우

구글나우는 지금까지 생각하지 못했던 새로운 이벤트를 사용자가 만들어내면, 추가적인 새 이벤트를 계속해서 제공하는 특징을 가지고 있습니다. 구글 나우는 카드를 추가할 때마다 해당 이벤트가 생성되는 방식으로 사용자에게 이벤트를 유도합니다. 예를 들어 아침에 오늘 날씨를 알려주면 출근하기 위해 직장까지 가는데 소용될 시간을 알려주고 지하철역에 도착하게 되면 곧 도착하는 지하철의 시간표를 보여 줍니다. 거리에 서면 택시를 불러주기도 하죠. 이와같이 아침시간만을 보더라도 세세하게 사용자의 시간에 맞춰 이벤트를 아주 똑똑하게 제공하고 있습니다. 심지어 견과류 한통을 구매하고 한통을 다 먹어갈 때 쯤 주문을 원하는지 물어보기 까지 사용자에게 적시적소에 이벤트를 제시할 줄 아는 영민함을 갖춰다고 볼 수 있습니다.

- 아마존 대시

온라인 이벤트 보다 더 나아간 서비스를 생각해보자면 아마존 대시가 가장 적합할 겁니다. 오프라인 이벤트까지 적극적으로 발굴하지 않으면 경쟁사에게 밀릴 수 도 있다는 강박 때문 일까요? 아마존은 온라인과 오프라인 두 채널을 활용한 서비스를 보여 줍니다. 아마존 대시는 어떻게 하면 구매까지 걸리는 시간을 극도로 짧게 할것인지? 어떻게 하면 필요할 때 즉시 구매하게 할 것인지? 어떻게 하면 더 자주, 정기적으로 구매할 것인지에 대해 고민합니다. 또한 이를 아주 효과적으로 해결한 사례일 것입니다.

- 캐시슬라이드 

사용자를 아주 감각적으로 후킹하는 이벤트를 만들어내는 캐시슬라이드는 소비자가 만족할 수 있고 원하는 혜택을 누릴 수 있는 이벤트를 제공합니다. 이 서비스는 모바일의 대기화면에서 광고들을 제공해서 광고를 확인하거나 이벤트를 수행하면 보상으로 캐시(추후 현금으로 변경가능)로 지급해주는 개념으로 운영하는 서비스입니다. 사람들에게 어느정도의 귀찮음이란 허들이 있음에도 불구하고 지속적인 인기를 얻는 이유는 대기화면을 슬라이드 하는 간단한 이벤트로 스타벅스 음료를 구입하는 경험을 통해 확실한 동기부여를 만들어 내는데 있어 보입니다.

앞서 3가지 이벤트 커머스 사례를 통해 UX적인 관점에서 정리해보면, 

생활의 특정이벤트를 이용해 모바일앱에서 이루고자 하는 목표(판매/구매)까지 집요하게 연결시켜야 한다는 점이 핵심임을 알 수 있습니다. 단순히 화면상의 구조를 설계하는 것이 아닌 “이벤트를 만들고 그 이벤트에 반응한 고객을 어떻게 목적지까지 이끌어 나갈 것인가”에 대해 고민해야합니다. 이벤트 커머스의 핵심은 시간의 흐름과 고객의 반응에 따른 논리적인 여정지도를 설계하는데 있다고 생각합니다.


타임 커머스

시간을 조작하여 매출의 극대화를 일으키는 지칭합니다. 이해가 어려우시죠? 쉽게 말하면 소셜커머스의 개념과 비슷하다고 보면됩니다. 이를 시간에 민감한 상품과 연결시키면 그 파급력은 상당합니다. 3가지 사례로 타임커머스에 대해 알아보겠습니다.

- Last Minute Deal

신규 사업자가 모바일 커머스로 진입하기 좋은 입구라고 할 수 있습니다. (애초에 소셜커머스라는 것은 존재하지 않았다고 할 수 있습니다. 단지 모바일에 빨리 적응한 좋은 기회를 포착한 덕이 커보입니다.) Daily Hotel, Twitter real Time commerce등 시간이 지나면 가치가 사라지거나 반감된는 상품들을 판매합니다. 데일리호텔에서 보여주는 부분이 더 가시적으로 와닿으실 겁니다. 호텔같이 오늘이 지나면 상품으로서의 가치가 없어지는 것은 어찌되었든 오늘 한 개의 방이라도 더 예약이되는것이 현실적으로 더 이득입니다. 오늘이 지나면 호텔방의 가치는 없어지게 되니까요 이와 같이 시간을 이용해서 상품을 판매하는 전략은 어쩌면 홈쇼핑의 미래일 수 도 있을 것입니다.

- Time Shift Commerce

지금 당장사용해야 하는 서비스를 keep해두었다가 나중에 내가 필요할 때 꺼내 쓸수 있다면? 혹은 미래에 일어날 일을 내가 미리 예상하여 실행할 수 있다면 어떨까요? 말이 조금 어려웠습니다만 이는 충분히 우리 주변에서 일어나고 있는 서비스입니다. GS의 나만의 냉장고를 볼까요? 우연치않게 1+1 상품을 구매하게 되었습니다. 그런데 지금 이 사은품이 당장 필요없을 때, 나만의 냉장고에서는 사은품을 킵해두었다가 나중에 제가 필요할 때 그 상품을 사용할 수 있게 해줍니다. 

물론 매장에서 킵해둔 그 상품을 내어줍니다. 스타벅스의 사이렌오더의 경우 바쁜 출근시간에 줄을 서서 스타버스 음료를 구매하는 것이 아니라 출근 전 앱으로 스타벅스를 미리 주문하고 매장에 잠깐 방문하여 음료를 수령할 수 있게 해줍니다. 시간을 조작하니 내가 필요할 때 사용할 수 있는 상품이 늘었네요.

- Time Control Commerce

시간을 반복하여 매출의 극대화를 일으키는 서비스로 쉽게 서브스크립션 서비스들을 생각해 볼 수 있습니다. 화장품, 남성복, 면도기 심지어 꽃까지 정기구매 서비스들이 생겨났고 2015년도 부터는 쿠팡에서도 해당 서비스를 시작하였습니다. 해외의 경우 이런 방식이 훨씬 흔하며 아마존에서도 2007년부터 아마존 프레시라고 하는 식료품 판매 자회사를 운영하고 있습니다.

타임커머스에서 핵심적으로 생각하는 UX적 관점은 어떻게 하면 재구매와 정기구매를 유도할 수 있을 것인가에 대한 고민일 것입니다. 다양한 사람들이 한번에 관심을 가질 수 있고 판매의 시점을 자유롭게 당기거나 미루고 또는 판매간격을 더 좁힐 수 있는 UX적 고민들이 필요합니다.


대화형 커머스

저는 개인적으로 이번 강의 내내 가장 관심있게 들었던 부분입니다. 대화형 커머스란 소비자의 개인적인 요구에 맞춰 일련의 상호작용(대화)를 통해 상품을 추천하고 판매하는 커머스를 지칭합니다. 2016년도 UX키워드로 대화형 커머스가 이슈로 떠오르고 있는 만큼 주목해 볼만한 트렌드라고 할 수 있습니다. 심지어 미래의 인터페이스는 텍스트라고 할정도로 보이지 않는 대화형 UI가 미래를 주도할 것이라는 관측이 심심치 않게 보이고 있습니다. 개인적으로는 결국 인간이 가장 오랫동안 경험해왔고 익숙해왔던 인터페이스인 메세징방식이 다시 주목받는게 아닌가 싶습니다.


No UI is The New UI - by Tony Anne


- Instant Commerce

인스턴트 메시징 SMS, 메신저를 통해 바쁜 소비자에게 맞춤 쇼핑 서비스를 제공하는 커머스를 지칭합니다. Magic이나 GoButtler를 생각해볼 수 있겠네요. 해당서비스는 한번 경험해보셨으면 좋겠습니다.

Magic : https://getmagic.com

GoButtler : http://www.gobutlernow.com


- Assistant War

똑똑한 인공지능은 비서 Facebook M의 등장으로 앞으로는 비서처럼 나의 일정을 관리해주고 소소한 도움에서 벗어나 커머스의 개념을 장착한 비서를 급전환될 것으로 예상됩니다. 이미 Siri나 Cortana에서도 이런 움직을 엿볼수 있고 이미  Facebook M은 대화메신저로 송금이 가능하고 우버도 불러주며 식당도 예약해주고 있습니다. 이미 중국의 위챗에서 이런 움직임이 보이기 시작했었죠.

- Amazon Echo

Alex라는 이름으로 부른 귀, 기본적인 생활정보를 물어보고, 원하는 음악이나 라디오를 재생시켜주는 스마트 스피커 입니다. 그야말로 기기와의 “대화”로 지시하고 결과를 얻어 볼 수 있는 일이 대중화되는 시발점이 아닐까 싶었습니다. 스마트 홈으로 발전하기 위한 트로이목마라고 생각을 하시는데 결국엔 대화형 커머스의 플랫폼이 되기 위해 우리의 생활에 안착한 것은 아닐까요?

대화형 커머스의 특징은  다소 미래적인 부분에 초점을 두게 됩니다. 지금 당장 적용하지 않는다 하더라도 시간에 따라 고객에게 하나씩 추천하고 선택하게 하는 UX알고리즘은 지금부터 축적되어야만 도태되지 않을 것이라는 점입니다. 고객의 선택지를 면적에 따라 배분하는것이 아닌 시간의 흐름에 맞는 선택을 잘 추천할 수 있는 알고리즘을 설계해 나가는 것이 중요한 부분이라고 생각됩니다.


3. “통합 경험”으로서의 시간

여러가지 이야기를 제시하였지만 결국 이 시간과의 싸움에서 유리한 축을 차지하려면 철저한 준비가 필요해 보입니다. 바로 채널의 통합을 통해 통일된 경험을 사용자에게 제공하는 것인데요, 채널의 통합은 사업의 관점이 아니라, 사용자, 특히 사용자의 시간축에서 통합된 경험을 제공하는 방향으로 이뤄져야 합니다. 예를 들어 웹-앱의 서비스 통합 그리고 브랜드 토합을 통해 고객의 타임라인을 중심으로 두는 온라인 채널의 통합과 사용자 중심의 전략도 갖춰저야 합니다.

Amazon Book Store와 Best Buy가 제공하는 채널 통합으로서의 사용자경험을 잘 제시하는 서비스라고 평가할 수 있습니다. 동일가격과 동일한 방식의 경험을 제공하고 오프라인매장이 온라인의 매장의 쇼룸이자 물류관리를 대신하는 공간으로 통합방식으로 진화해 가고 있습니다.


4. 시간에 설계하라

픽셀시대의 종말 

두둥..! 저는 GUI디자이너로 일하고 있어서 그런지 이런 이야기에 내심 뜨끔했지만 인터페이스의 미래는 픽셀로만으로 구현되지 않을 것이란 폭넓은 개념에서 일부분 동감하긴합니다. 실제로 다양한 UI개념이 도입되고 있기도 하고요.

Fabricio Teixeriar가 올린 The state of UX in 2016 : https://uxdesign.cc/the-state-of-ux-in-2016-4a87799647d8#.xmusksg9g

결국 화면의 디자인은 모두 비슷해지는 환경에 도달할 수 있습니다.  우리가 차별화된 관점으로 고객의 시간을 디자인한다면 어떨까요? 아마 미래에 이는 필수적인 부분일 것입니다. 첫화면 보다는 고객의 첫 일주일에 집중할 수 있는 관점과 해안을 갖추고 어떻게 시간을 뭉치고 당기고 미루는 경험을 고객에게 제공할 지 고민해봐야 할 것 같습니다. 어떻게 즉시, 그곳에서 지극히 개인적인 고객의 취향을 맞출 수 있는지 다양한 고민을 해보면서 본 포스팅을 마칩니다.

긴글을 읽어주셔서 감사합니다.  


[참고##pxd talks##]저장저장

팀블로그 pxd Story 구독 방법  블로그 글은 각 개인의 생각이며 피엑스디와 다를 수 있습니다.


Trackback 0 Comment 0
Ad Test...
2010.03.19 11:55

Siri, Personal Assistant?

Agent라고 하면 무엇이 떠오르나? 첩보원? SF 영화? 일본 만화? Clippy?

사람마다 Agent에 대한 생각도 다르고, 정의도 다르지만, 여기서는 Agent의 정의를 사람의 활동을 도와주는 Personal Assistant로 제한하고, 최근에 나온 괜찮은 제품이 하나 있어서 소개를 하려고 한다.

바로 Siri ( http://siri.com/ )라는 아이폰앱이다.


기존에 나왔던 제품보다 음성인식이 뛰어날 뿐 아니라, 내용을 분석하여, 제대로 된 서비스를 제공해준다. 지금까지 나왔던 다른 어떤 제품보다 인식률과 서비스률은 높은 것 같다.

(물론 실제로 해보면 잘 안된다. 데모라서 잘 되는 것 같다.)

다만 Personal Assistant라면 나의 정보를 미리 알고, 나의context(기분, 환경 등) 에 맞게 적절하게 서비스를 제공주어야 하는데 Siri는 그런 기능까지는 제공해주지 못해서 아쉽다.하지만, 이전 서비스보다는 진일보 했다고는 할 수 있다.

-------
이 글은 2010년 3월 19일에 작성된 것이며, 글 발행 한 달후(2010년 4월 28일)에 Siri는 Apple에 인수 합병되었다. 그 후 2011년 10월 4일, iOS5 (with iPhone4S)의 일부로 발표되었고, 점차 다른 기기에서도 확대되었다.

[참고##음성##]


팀블로그 pxd Story 구독 방법  블로그 글은 각 개인의 생각이며 피엑스디와 다를 수 있습니다.


Trackback 0 Comment 0
Ad Test...