[리뷰] Leap Motion 사용경험

2013.11.07 00:23리뷰
by iron_castle

컴퓨터, 스마트폰, 태블릿 PC등과 같은 디바이스를 통해 컨텐츠를 창출하고, 소비하는 과정 사이에는 디바이스와 사람의 관계를 잇는 인터랙션 과정이 담겨 있습니다. 그 예로 컴퓨터 키보드와 마우스 같은 디바이스를 통해 문서를 작성하기도 하고 동영상을 편집하거나, 영화를 보거나, 게임을 하곤 합니다.
이런 흐름속에서 디바이스와 사람의 관계를 잇는 접점을 최소화하고 디바이스와의 인터랙션을 제한되지 않는 수단으로 자유롭게 이용하게 하는 노력들이 현재까지도 계속 되고 있습니다. 음성인식, 동작인식과 같은 기술의 발전이 이를 대변해 주고 있는데, 오늘은 동작인식과 관련된 얘기를 해볼까 합니다.

최근 동작인식에 관련된 많은 성공 사례들이 등장하고 있습니다. 영화에서 CG의 큰 부분을 차지하고 있는 모션캡쳐, 게임컨텐츠 부분에서는 닌텐도 wii를 시작으로 마이크로소프트의 키넥트와 같은 컨텐츠 들이 만들어 지고 있습니다. 이런 게임, 영화 분야외에 우리 일상속 가장 많이 사용하는 디바이스인 PC를 동작인식을 이용하여 컨트롤 할 수 있는 제품이 출시 되었습니다. 바로 Leap Motion 입니다. 국내에도 얼마전 출시되어, 사용해보신분들도 있을겁니다.


키넥트와 Wii 같은 제품이 사람의 손짓 발짓등 비교적 큰 움직임을 감지하여 서비스를 제공했다면 Leap Motion 손을 사용하여 화면을 보다 정밀하고 디테일하게 컨트롤 하는 것에 초점이 맞추어져 있다고 합니다. (키넥트의 200배 이상의 정밀도를 보여준다고 합니다.)

동작인식의 최대 장점은 별도의 디바이스 없이 대상을 컨트롤 할 수 있다는것입니다. 하지만 반대로 별도의 디바이스가 없기 때문에 시각적 컨트롤 가이드가 없고, 사용자가 학습된 기억을 바탕으로 컨트롤 해야한다는 부담감을 가지고 있습니다. 이런 부분을 Leap Motion 에서 어떤 방식으로 접근했을지, 그리고 얼마나 효과적인 인터랙션을 구성했을지, 어느 정도 퀄리티의 사용감을 제공하는지가 매우 궁금했습니다.


Leap Motion 에서 제공하고 있는 컨텐츠들은 게임 관련 앱들이 다양하게 있지만, 크게 궁금하진 않았습니다. 키넥트와 같은 사용경험과 어떻게 다를지는 어느정도 예상되었기 때문이죠. 게임으로 하는 Gesture동작은 동영상으로 보면 충분히 감이 옵니다. 제가 궁금했던것은, Leap Motion에서 자랑하는 정교함의 정도는 제가 일반적으로 경험했던 키넥트와 달리 얼만큼의 정교한 컨트롤로 원하는 Task를 수행할 수 있을까? 였습니다.



그런 맥락에서 손가락 Gesture를 이용해 마우스처럼 조작할 수 있는 Touchless 앱을 실행해 보기로 했습니다. 보이지 않는 인터페이스인 NUI 특성상, 먼저 화면내 시각적 컨트롤 가이드와 조작할 수 있는 디바이스가 존재하지 않기 때문에, 사용자에게 사용전 인터랙션 방식을 학습하게 합니다.


먼저 컴퓨터에서 가장많이 사용하는 Click, Scroll, Drag 등의 컨트롤을 해봤습니다. 조작 방식은 X-Y축을 포인터로 자유롭게 이동하고 Click, Drag 와 같이 대상을 선택하는 동작은 Z축 방향으로 살짝 누르는 Gesture를 취하면 선택이 됩니다.


사용후 받은 느낌은 youtube 에서 본 여러 영상의 멋진 모습과는 달리 정말 쉽지 않은 사용감 이었습니다. 원하는 대상을 선택하기 위해서는 몇 번의 재시도와, 사용감을 익히기 위한 연습이 필요합니다. 특히 매우빈번하게 발생한 오류가 있었습니다. 원하는 대상만 골라 빠르게 다음 Task를 수행하는 것이 컨트롤의 Goal인데, Leap motion 의 Touchless 에서는 원하는 대상을 선택하는 것에 대한 문제가 있었습니다.
입력 Gesture가 아닌 불필요한 동작까지 입력 조작의 하나로 인지하여 원하지 않는 클릭 동작까지 되어버리는 오류가 많았던 겁니다. 단적인 예로, 화면 스크롤을 위해 두손가락으로 화면을 스크롤 하는 Gesture를 취하고 나서 손가락을 책상에 내려놓는 동작까지 인식되어 하단에 있던 다른 창을 클릭해 버리는 경우가 많았습니다. 이를 피하기 위해선 손가락에 엄청난 집중을 해야했습니다.

필요한 Gesture입력과 그렇지 않은, 컨트롤과 상관없는 Gesture를 오류없이 구분하는것이 '동작인식', 특히 세밀함을 궁극으로 하는 Leap Motion 과 같은 제품에서 우선적으로 해결되어야 할 부분인 것 같습니다. 다시 말해 동작만 세밀하게 인식하는 것이 아닌 사용자의 의도가 담긴 Gesture를 얼마나 잘 인식하느냐가 매우 중요한 것 같습니다. 아무리 좋은 정밀도 있는 인식률을 자랑한다고 해도 사용자가 원하지 않는 대상을 선택했을 때의 당혹감과 그것을 취소, 재선택하게 하는 과정이 원할하지 않다면 좋은 인터페이스가 될 수 없기 때문입니다.

어찌보면 사람의 손가락으로 제한된 화면을 세부적으로 컨트롤 한다는 것은 어려운 일 일수도 있겠습니다. 하지만 원하는 대상을 선택하고 필요한 작업을 수행할 수 있게 한다는 것은 기본적인 인터페이스의 역할이기도 하기에 이 부분에 대한 많은 고민이 필요해 보입니다.

아직 Leap Motion 에 대한 가능성을 판단하기에는 이른감이 있습니다. 새로운 초석으로서의 Leap Motion, 정밀한 컨트롤에 관한 현재 상태는 만족할만한 정도는 아니지만, 멋진 경험을 제공해줄 다음 모델을 기대해보면서 후기를 마치도록 하겠습니다.
감사합니다.

참고글..
2013/06/12 - [UI 가벼운 이야기] - Natural User Interface (NUI)
2010/05/24 - [UI 가벼운 이야기] - Touch Gesture Reference Guide (터치 제스쳐 가이드)
2010/03/14 - [UI 가벼운 이야기] - 웹사이트 마우스 제스쳐 비교 (크롬플러스, 네이버툴바, 파이어폭스)


Leap Motion 소개영상


참고영상
MYO - Wearable Gesture Control from Thalmic Labs
근육의 형태변화를 감지해 대상을 컨트를 하는 방식


[참고##review##]

[참고##NUI##] 
  • 프로필사진
    無異2013.11.11 16:18 신고

    일상적으로 사용하는 입력수단이 되려면 기본으로 키보드나 마우스처럼 대기 상태가 resting position 이 되어야 하고 또 대기상태에서 입력상태로의 전환 비용이 적어야 하고요. leap motion은 팔을 들고 있으면 힘들고 팔을 내리고 대기하고 있으면 입력할때 팔을 들어올려야 하니까 더 힘들고. 안될거야 아마.

    제가 기대했던건 책상에 손을 올려놓고 책상면을 모두 가상 키보드+멀티터치패드로 사용하는 시나리오였는데. 근데 그런 형태로 설치 하면 인식이 거의 안되더라구요.