Home > Vol. 28, No. 1

An Empirical Evaluation of the Representative Hand Gesture of Task from User Perspective
사용자 관점에서 살펴 본 테스크에 대한 대표 핸드제스처 도출 연구
  • Jihyang Gu : Department of Interaction science, Sungkyunkwan University, Seoul, Korea
  • 지향 구 : 성균관대학교 인터랙션 사이언스학과, 서울, 대한민국
  • Donghee Shin : Department of Interaction science, Sungkyunkwan University, Seoul, Korea
  • 동희 신 : 성균관대학교 인터랙션 사이언스학과, 서울, 대한민국

Background This study examines a gesture recognition study for a gesture-based device Leap motion introduced in 2013. Without the assistance of a physical device, Leap motion can control a computer or a smart-device using body gestures. Given its potential, Leap motion can be widely applied to various fields. However, users should go through the tedious process of learning different gestures depending on a program or a field, due to insufficient representative gestures of Leap motion. Users can be easily confused by the meaning of the same or similar gesture.

Methods The research is based on a literature study and experimental methods. It critically analyzed the previous researches and theories on gestures. Experimental methods were designed based on the literature review and supplemented by related theories. The experiment adopted the user-centered evaluation approach. Twenty users participated in the experiment. Additionally, in-depth interviews were conducted to understand the features and to focus on the gestures. The interviews explained the means to collect and analyze the meanings and the reasons of each gesture.

Results The experiments evaluated nine gestures of the top functional gestures in six categories. The literature review classified and analyzed how the gestures are deduced. Directivity showed the highest frequency, accounting for 35% of the total reasons, and personal descriptive states related to the function gained the lowest frequency, accounting for 2.77% of the total reasons.

Conclusion This study proposes an alternative solution for reducing confusion to the developers and users of the Leap motion application by heuristically suggesting integrated guideline for understanding gestures for Leap motion gestures based on the user-centered approach.

Abstract, Translated

연구배경 본 연구는 2013년 출시된 제스처 기반 디바이스인 ‘Leap motion의 기능 별 제스처 이해’를 연구 주제로 한다. Leap motion은 물리적인 장치 없이 몸으로 컴퓨터나 스마트기기를 컨트롤 할 수 있어 다양한 분야에 쓰일 수 있다. 하지만 Leap motion에서 제공해 주는 대표 제스처가 미흡해 각 분야나, 프로그램마다 제스처에 관한 안내교육을 받아야 한다. 같거나 비슷한 의미를 지닌 제스처임에도 불구하고 사용자가 혼란을 느끼기 쉽다는 맹점 있기 때문이다.

연구방법 연구는 문헌연구방법과 실험연구방법으로 진행하였다. 먼저 제스처 관련 선행 연구를 분석하였고, 선행연구과 관련 이론을 참고하여 실험 방법을 도출하였다.

총 20명을 대상으로 사용자 중심 도출 방식을 이용해 실험을 진행 하였고, 사용자로부터 도출 된 제스처의 특성을 파악하고 유의점을 파악하기 위해서 심층 인터뷰를 수행하여 해당 제스처의 의미와 이유를 수집하고 분석하였다.

연구결과 이를 통해 최종적으로 기능별 Top제스처를 6가지 분류의 9가지 제스처를 도출하였다. 선행연구를 통해 제스처 도출이유에 대해 분류하고 분석하였다. 여기서 방향성이 35%로 가장 많은 빈도를 보였고, 기능과 관련된 자신의 상태묘사가 2.77%로 가장 낮게 나왔다.

결론 본 연구에서는 사용자 중심 도출 방식을 이용하여 Leap motion의 제스처에 대해 이해해보고 가이드라인을 제안해 봄으로써 Leap motion의 어플리케이션 개발자와 사용자들에게 혼란 줄여 줄 수 있는 대안을 모색해 보았다.

Keywords:
HCI, Gesture interaction, UX, Leap motion.
pISSN: 1226-8046
eISSN: 2288-2987
Publisher: Korean Society of Design Science
Received: 29 Apr, 2014
Revised: 23 Jun, 2014
Accepted: 07 Jul, 2014
Printed: Feb, 2015
Volume: 28 Issue: 1
Page: 133 ~ 145
DOI: https://doi.org/10.15187/adr.2015.02.113.1.133
Corresponding Author: Dong-hee Shin (dshin@skku.edu)
PDF Download:

Citation: Gu, J., & Shin, D. (2015). An Empirical Evaluation of the Representative Hand Gesture of Task from User Perspective. Archives of Design Research, 28(1), 133-145.

Copyright : This is an Open Access article distributed under the terms of the Creative Commons Attribution Non-Commercial License (http://creativecommons.org/licenses/by-nc/3.0/), which permits unrestricted educational and non-commercial use, provided the original work is properly cited.

1. 서론

Leap motion은 마우스나 키보드와 같은 기존의 전통적인 입력기기의 물리적 한계를 뛰어넘은 동작인식 인터페이스 장치이다. 2012년 5월에 발표된 Leap motion은 영화 ‘마이너리티 리포트’의 한 장면처럼 가상의 Touch Space에서 손을 움직여 컴퓨터와 3차원으로 상호 작용할 수 있게 해준다. 이를 통해 사용자는 손짓, 손가락 움직임만으로 컴퓨터를 컨트롤 할 수 있다. Leap motion은 MIT’s technology Review에서 “스마트 폰 이래 가장 의미 있고 새로운 기술”로 소개되기도 하였다. 사용자에게 기기를 컨트롤하기 위해 물리적인 무엇인가를 착용하거나 잡지 않고 컴퓨터와 같은 디바이스와 소통할 수 있다는 점에서 큰 의미를 가진다.

Leap motion은 적외선광과 전하결합소자 카메라를 이용해 그 반사파로 손동작을 감지하며, 손에 반사되는 적외선을 실시간으로 읽어 손이 어떻게 움직였는지 계산한다. Leap motion이 1초에 주고받는 적외선 반사 정보는 무려 290번으로 매우 정교한 조작이 가능한 것이 특징이다(Leap motion homepage, 2014; Simonite, 2012).

Leap motion은 ‘왜 사람들은 자신의 몸으로 버튼을 눌러야 만할까?’, ‘왜 사람의 자연스러운 움직임만으로는 안 되는 걸까?’라는 질문에서 시작해 Leap motion을 통해 물리적 세계와 같은 직관적인 인터랙션으로 마치 인터페이스가 사라지는 몰입 경험을 주는 것을 목표로 제작되었다(Callaham, 2012).

Leap motion의 핸드제스처 연구를 하기 전에 기존 3D입력 기기인 X-box의 키넥트와 스마트 TV의 차이점에 대해 비교해 볼 필요가 있다. 키넥트의 경우 48개의 센서를 기반으로 신체 골격을 인식하여 다양한 제스처 인식이 가능하지만, 전신이나 큰 동작에 최적화 되어 있어 핸드 제스처에 최적화 되어 있는 Leap motion에 비해 정밀도가 떨어진다. 이에 비해 Leap motion은 핸드 제스처를 기초로 하여 설계되었기 때문에 키넥트보다 감도가 200배 높고 제스처의 범위가 ‘손’이라기보다 ‘손을 기초로 한 손가락’에 가깝다(Kwon, 2013). 또한 스마트 TV의 경우 TV고유의 기능에 특화되어 있고, PC를 기초로 하는 Leap motion과는 달리 고유기능을 쉽게 인식할 수 있게 설계되어 있어 제스처들의 움직임의 크기가 큰 것이 특징이다. 스마트 TV의 제스처 관련 선행연구 (Jang, 2013)를 살펴보면 팔 전체를 사용하여 움직이거나, 손목을 이용, 혹은 손 전체를 이용하는 제스처 인식이 많다는 것을 살펴 볼 수 있어 Leap motion을 기반으로 하는 핸드 제스처 연구와는 차별되어 보인다.

프로모션 비디오를 보고 Leap motion을 구매한 사람은 터치 마우스와 터치 패드, 터치스크린 모니터처럼 윈도우에서 바로 사용하는 멀티 터치 입력 기기라 착각하기 쉽다. 하지만 Leap motion은 기본적으로 윈도우나 Mac에서 터치센서/마우스 대용으로 사용하기 어렵다. Leap motion은 에어스페이스 홈(Airspace Home)이라는 전용 앱에 쓸 수 있는 컨트롤러라 정의하는 것이 더 합당하다.

Leap motion사에서는 출시 전 미리 개발자들에게 제품 샘플과 소프트웨어 개발킷(SDK)을 배포하면서 Leap motion용 앱 개발에 들어갔고, 이를 에어스페이스 홈이라는 마켓을 통해 판매하고 있다. 현재 에어스페이스 홈에는 7가지의 분야 분류로 약 150여개(2014.2기준)의 앱 들을 선보이고 있는데 7가지 분류는 <Table 1>과 같다.

Leap motion은 자체 앱 스토어의 생태계를 구성하기 위해 출시 전 개발자를 모집하여 다양한 앱을 개발하고 출시하였다. 그러나 앱의 다양성에 비해 Leap motion사에서 제시한 제스처 가이드라인은 3가지 대표 제스처 밖에 없어 각각의 앱이 시작할 때 제스처에 관한 안내교육을 들어야만 한다. 게다가 같거나 비슷한 의미를 지닌 제스처임에도 불구하고 앱 마다 정해진 제스처가 달라 사용자가 혼란을 느끼기 쉽다.

Table 1
Air space app의 분류와 내용

분류 내용
1 Computer control Leap motion을 이용, 컴퓨터를 제어하는 앱
2 Creative control 창의적 활동을 할 수 있는 앱
3 Education 자연관찰이나 교육에 관련된 앱
4 Games 컨트롤이 간단한 게임 앱
5 Music&Entertainment 연주나 감상 혹은 작곡 등을 할 수 있는 앱
6 Productivity&Utilities 프리젠테이션이나 컨트롤 관련 앱
7 Science 해부, 유전자등을 3D로 관찰할 수 있는 과학 관련 앱

한편, 제스처 인터페이스 관련 초기연구는 제스처 인식 기술 개발 및 인식률 향상에 초점을 맞추고 연구자들이 제스처를 제시하는 방식을 취했지만, 최근에는 도출 된 제스처의 직관력 향상과 NUI(Natural user interface)를 향상시키기 위해 제스처 도출 자체의 연구가 진행되고 있다(Wenkai Xu, 2013; Kuhenel, 2011; Neβelrath, 2011; Nielsen, 2003; Nielsen, 2004; Akers, 2006; Stern, 2008). 이러한 연구들은 사용자들로부터 직접 제스처를 도출하는 방법으로 이루어지고 있다. 그러나 이들 연구들은 스마트홈, 휴대전화 Table PC, Smart TV등과 같은 기기를 중심으로 하는 한 연구가 대부분이며, 이들 연구의 경우 모바일 기기 중심의 제스처 도출 연구이거나, 스마트 홈 내 가전기기의 통합적인 제어를 연구하고 있어 본 연구에 바로 적용시키기에는 무리가 있다. 또한 Leap motion에 관한 제스처 연구는 거의 찾아 볼 수 없었다. 제스처는 마우스, 키보드와 같은 전통적인 입력 장치의 도움 없이 디지털 시스템이 응답할 수 있는 물리적 움직임을 말한다(Saffer, 2008).

이와 같은 측면에서 본 연구는 사용자의 입장에서 Leap motion의 여러 앱을 조작하기 위한 3D 핸드 제스처를 알아보고 빈번히 취하는 제스처를 이해하는 것을 목적으로 한다. 제스처 도출을 위해 사용자 중심도출 방식을 활용하였으며 사용자로부터 가장 많은 빈도수로 도출된 제스처(이하 Top제스처)를 제시하였다. 여기서 도출된 제스처의 동의 정도를 분석하기 위해 각 기능별 도출 된 제스처에 대하여 워브룩(Wobbrock et al., 2005)이 제안한 의견일치도 점수를 계산하였다.

또한 사용자로부터 도출 된 제스처의 특성을 파악하고 본 연구에서 도출 된 제스처의 유의점을 파악하기 위해 사용자가 각 제스처를 취한 후 심층 인터뷰를 수행하여 해당 제스처가 갖고 있는 의미와 제스처를 취한 이유를 수집하고 분석하였다.

2. 문헌조사
2. 1. 제스처 기반 선행연구

최근 제스처에 관한 기기나 기술이 발전하면서 ‘어떤 제스처를 사용할 것인가’에 관심을 두고 직관적이고 쉬운 제스처를 도출하기 위한 다양한 시도가 이루어지고 있다(Kuhenel, 2011; Neβelrath, 2011; Nielsen, 2003; Nielsen, 2004; Akers, 2006; Stern, 2008). 하지만 이러한 시도는 스마트 TV나 Table Top, 스마트폰을 대상으로 이루어져 있을 뿐 완벽하게 3D기반의 제스처를 위한 연구는 미비한 실정이다. 스마트 TV나 Table top, 스마트 폰 연구의 경우 기기를 이용한 제스처 연구가 많이 진행되어있고, 3D기반의 제스처 연구라 하더라도 Leap motion에 바로 적용시키기에는 무리가 있다.

기존 제스처 기반의 연구의 경우 스마트 홈 내 가전 기기를 조작하기 위한 목적으로 통합 리모컨을 이용하여 기기를 제스처로 제어하는 연구(Wilson, 2003; Ouchi, 2005; Pan, 2010), 손에 글로브를 착용하여 손가락의 구부림 등으로 기기를 조작하는 글로브 형태(Dipietro, 2008), Table top(Seifried, 2008) 또는 Smart wall display(Kim, 2011)등을 활용하거나 Smart TV(Jang,2013)를 조작하는 제스처 연구가 선행되어 왔다. 그러나 상기 제스처 인터페이스에 적용된 제스처의 경우 기기가 인식하기 용이한 제스처를 전문가, 혹은 디자이너 중심으로 임의로 제시하는 방식을 취하고 있다.

사용자에게 직관적이고 용이한 제스처를 도출하기 위한 시도로는 쿠흐넬의 연구(Kuhnel, 2011)와 네베엘흐(Neβelrath, 2011)의 연구, 장민선(Jang, 2013)의 연구가 있다. 쿠흐넬(Kuhenel, 2011)은 가전기기 컨트롤을 위해 스마트폰을 이용한 제스처 인터페이스를 제안했다. 그는 제스처 도출을 위해 사용자를 제스처 도출 초반 단계부터 참여시켰다. 하지만 스마트폰 기반의 제스처 도출이기 때문에 제스처 도출시 스마트폰을 들고 해당 기능에 대한 제스처를 도출하여야만 했다. 이 경우 손에 든 스마트 폰으로 인하여 사용자의 제약이 있었을 수 있어 완벽한 3D 공간에서의 제스처라 하기 어렵다. 네베엘흐(Neβelrath,2011)도 스마트 홈 내에서의 다양한 기기에 대한 제스처 도출을 위해 초반부터 사용자를 참여하였으나 제스처 도출 시 해당 기능에 대한 2차원의 움직임의 경로만을 종이에 그리게 하였다는 한계점이 있다. 또한 스마트 홈을 기준으로 한 연구임으로 당 연구에 적용시키기에는 한계가 있다.

장민선(Jang, 2013)은 스마트TV를 제어하기 위한 제스처 가이드라인을 제안했다. 이 역시 사용자를 초반부터 참여시켜 사용자 중심 제스처 도출을 시도하였고 해당 기능의 활성화 전/후 이미지를 제공하여 사용자의 제스처 도출을 유도하였다. 하지만 스마트 TV를 위한 핸드 제스처 도출을 목적으로 하였기 때문에 순수한 핸드 제스처가 아닌 리모컨의 모양을 따서 제작한 Mock-up 방식의 제스처 도출이므로 당 연구에 적용시키기에는 한계가 있다. Leap motion의 경우 사용자가 잡거나 착용해야 하는 물리적인 대상이 없지만 장민선(Jang, 2013)의 연구의 경우 리모컨 모양의 Mock-up과 함께 이루어 졌으며 스마트 TV의 기능에 맞춰 진 연구임으로 한계점이 있다.

2. 2. 제스처 도출방법

제스처 도출 방법은 크게 두 가지로 나눌 수 있다. 제스처 세트 결정 시에 디자이너에 의해 제스처 세트가 결정되었을 경우 디자이너 중심 도출 방식이라 한다. 또 사용자 참여로 제스처 세트가 결정 되었을 경우 사용자 중심 도출 방식이라 한다(Jang, 2013). 디자이너 중심 도출 방식의 경우 기기의 해당하는 제스처가 디자이너에 의해 결정되고 이후 사용자로부터 사용성 평가를 하는 반면, 사용자 중심 도출 방식의 경우 해당 기기의 기능에 대한 제스처를 사용자에 의해 결정된다. 초기 제스처 관련 연구의 경우 인식이 용이한 제스처를 중심으로 디자이너가 제스처를 선택하는 방식이 주를 이루었으나, 최근 NUI와 UX에 대한 인식 향상과 함께 제스처 인터페이스를 더욱 직관적으로 만들기 위해 사용자로부터 제스처를 도출하는 사용자 중심 도출 방식이 증가하는 양상을 보인다(Wenkai, 2013; Kuhenel, 2011; Neβelrath,2011; Choi et al, 2012; Jang, 2013).

사용자 중심 도출 방식은 제스처 인터페이스 초반 디자인 단계부터 사용자를 적극적으로 참여시켜 사용자에게 해당 기능에 대한 제스처를 도출하는 방법을 말한다. 이는 디자이너 중심 도출 방식보다 사용자의 입장에서 사용자의 경험을 최대한 반영할 수 있다는 장점이 있다(Shin, 2013). 이러한 방식은 크게 시나리오 기반 제스처 도출 방식과 개념적 기능 도출 방식으로 구분할 수 있다(Jang, 2013). 시나리오 기반 제스처 도출 방식의 경우 기기-기능에 대한 직접적인 사용경험이 아닌 유사 경험을 활용하여 제스처를 도출하는 방식을 의미한다. 도출하고자 하는 제스처의 기능을 의미하는 유사 어휘를 포함하는 시나리오를 사용자에게 제시한 뒤 사용자의 역할극(Role play)를 통해 해당 제스처를 유추, 도출하는 방식을 말한다. 예를 들어 닐슨(Nielsen, 2004)은 제스처 인터페이스를 도출 할 기능들을 선정하고 각 기능을 의미하는 유사 어휘를 생활적 맥락에 적용하여 시나리오를 만들었다. 사용자가 시나리오를 수행할 때 앞서 선정했던 기능을 수행할 때 취하는 제스처를 묶어 분석한 후 제스처 세트를 도출하였다. 예를 들어 프로그램에서 사용하는데 필요한 ‘Select’라는 기능에 대한 제스처를 도출할 경우, 일상생활에서 발생하는 유사한 상황, 즉, 컵을 선택하다(Select)등을 시나리오에 포함하였다. 실험 참여자들은 해당 시나리오 속에서 역할극을 수행하였고 연구자들은 해당 단어에서 도출되는 사용자의 제스처를 관찰하였다(Choi et al, 2012).

개념적 기능 기반 제스처 도출 방식은 사용자에게 대상 기기-기능을 언어로 제시한 후 해당기능과 가장 적합하다고 생각되는 제스처를 표현하게 하여 해당 제스처를 수집하는 방법이다. 이때 제스처 도출시 사용자에게 충분한 시간을 제공하여 사용자가 느끼기에 가장 합리적인 제스처를 도출하도록 한다. 이는 사용자가 기기-기능에 대한 직접적인 설명을 듣고 선정 기능의 제스처를 도출하기 때문에 사용자의 직접적인 사용경험이 충분히 반영될 수 있다는 장점이 있다(Kuhenel, 2011; Neβelrath, 2011; Akers, 2006; Shin, 2012; Stern, 2008).한편 언어로 기능을 설명할 경우 어휘의 맥락적 의미나 어휘가 가질 수 있는 오염변인으로 인한 편향을 막기 위해 해당 기능을 언어로 제시하는 것이 아니라 기능의 활성화 전/후 이미지를 제시하는 연구들이 나오고 있다(Wobbrock et al, 2009; Jang, 2013).

이의 한 예로 장민선(Jang, 2013)은 스마트 TV를 제어하기 위한 제스처 도출 실험에서 스크롤에 해당하는 제스처를 도출하기 위해서 화면이 내려가는 이미지를 순차적으로 제시하고 사용자에게 이를 수행하기 위한 제스처를 취할 것을 요구하여 해당 제스처를 도출하였다.

본 연구에서는 사용자가 Leap motion을 사용하면서 취하는 각 기능에 대한 제스처를 알아보고 사용자 입장에서 이해하는 것을 목적으로 한다.

3. 연구방법
3. 1. 실험 참여자

남 7명 여 13명으로 구성된 총 20명의 실험참여자가 본 제스처 도출에 참여하였으며, 평균 연령은 25.3세였다. 실험참여자들을 20대로 지정하여 수행한 이유는 이들이 IT을 구매하는 주 얼리어답터층이며 현재 가장 빠른 수용층임과 동시에 미래 주 사용층이 될 것이라 예상되기 때문이다(Yeo, 2011). 실험참여자 모두 오른손잡이였으며, kinect이나 닌텐도 Wii 등 3차원 핸드 제스처 인터페이스를 사용한 경험이 없었다. 또한 이들 모두 손가락을 포함 한 손과 팔에 대한 근골격계 질환이 없었다.

3. 2. 실험 장비 및 환경

실험실 내 제스처 도출 대상 기기-기능과 관련된 사물은 제스처 도출시 영향을 줄 수 있기 때문에 실험 공간에는 도출 대상 기기인 Leap motion과 모니터화면을 제외한 가전제품이나 디지털 기기를 제거하여 실험 참여자가 Leap motion의 기능과 제스처 도출에만 집중할 수 있도록 실험 환경을 조성하였다.

본 연구는 제스처를 도출하기 위하여 실험참여자에게 제스처 도출 대상 기기의 기능에 대한 활성화 전/후 이미지를 제시하였다. 활성화 전/후 이미지의 경우 선정 기능을 가장 잘 표현 할 수 있는 ‘뉴욕 타임즈’ 앱을 선정하였다. ‘뉴욕 타임즈’ 앱은 Air space스토어에서 상위 랭킹에 들어 있다. 기존 뉴욕 타임즈 앱에서 없는 선정 기능의 경우 포토샵을 이용해 해당 기능에 해당하는 이미지를 제작하여 제시 하였다. <표2>는 본 실험에서 진행된 6가지 그룹의 9가지 제스처의 이미지를 정리한 것이다.

Table 2
실험 제스처 이미지

조작기능 기능 활성화 전 기능 활성화 후
1. 선택
2. 스크롤
3. 옆으로 넘기기
4. 크기
5. 중립적인 상태
6. 수준에 대한 상태 조정

3. 3. 제스처 도출 기능 선정

Leap motion에서 제스처가 유용할 수 있는 기능을 선정하기 위하여 Leap motion의 앱 스토어인 Air space에서 각 분류항목 중 가장 사용 빈도가 높았던 프로그램 7개를 대상으로 공통기능을 도출하였다. Air space의 7가지 분류 항목 중 상위 랭크 되어 있는 free 앱을 기준으로 공통적으로 쓰이는 기능과 비슷한 의미를 가지고 있는 유사 기능을 포함하여 각각의 기능들을 분석 하였다. 제스처 도출 기능 선정을 위해 분석한 앱은 다음과 같다.



1. Better Touch Tool
2. Kyoto, Bongos!
3. TVOkids Caterpillar Count
4. The new York times
5. Google earth
6. Cut the rope
7. Cyber Science 3D motion

각각의 프로그램의 고유한 기능이나 그 프로그램에서만 쓰이는 기능들을 제외하고 핵심 기능 9가지를 분류하였다. 표3은 본 연구의 최종 제스처 도출 대상 기능에 대한 설명이다.

Table 3
최종 선정한 제스처 도출 기능

테스크 상세 분류 설명
1 선택   대상이나 아이콘을 선택한다.
2 스크롤 올리기 페이지 화면을 올리거나 내린다.
내리기
3 옆으로 넘기기   페이지를 왼쪽 혹은 오른쪽으로 넘긴다.
4 크기 크게 키우기 이미지나 페이지의 크기를 키우거나 줄인다.
작게 줄이기
5 중립적인 상태   아무것도 선택하지 않은 중립적 상태이다.
6 수준에 대한 상태 조정 뒤로 가기 Depth에 관한 것으로 뒤로, 앞으로 가기를 말한다.
앞으로 가기

3. 4. 실험 절차 및 방법

실험절차는 크게 실험 소개, 본 실험, 인지모델 파악을 위한 심층 인터뷰 단계로 구성하였다. 실험 소개 단계에서는 본 실험의 목적과 방법에 대해 실험 참여자에게 설명하였고, 실험 참여자에게는 Leap motion을 1분정도 시연하게 하여 Leap motion에서 어떤 인터랙션이 이루어지는지, 어떤 조작이 가능한 지 설명하였다. 선정 된 기능의 제스처 도출을 위해 각각의 제스처 도출 시작 시 해당 기능의 활성화 전/후 이미지를 보여주었다. 각각의 이미지를 보여 준 뒤 본 실험에 들어갔다. 본 실험은 WOZ기법을 참고하여 진행하였다.

Wizard of Oz Prototyping(WOZ)기법은 아직 완성되지 않은 특정 시스템을 설계하거나 프로그램의 인터페이스를 설계하고자 할 때, 현실적으로 불가능한 기술이나 상황이 발생할 경우, 시스템의 목적과 기능에 대한 Task Scenarios를 준비하고 Prototyping을 적용하여 보다 발전적인 결과를 도출하는 방법이다.

실험참여자의 모니터 뒤에 조작용 노트북을 두고 실험참여자가 제스처를 취하는 것에 맞춰서 노트북을 조작하여 본인의 제스처에 화면이 따라 움직이는 듯이 보이도록 유도하였다. 또한 실험의 순서효과를 최소화하기 위하여 실험 참가자 마다 테스크를 임의로 배열하여 제시하였다.

본 연구에서는 동일한 제스처가 서로 다른 기능에 대해 중복으로 도출될 가능성이 있었다. 실험 참여자가 가장 적합하다가 생각되는 결과를 도출 할 수 있도록 시간에 제약을 두지 않고 실험참여자의 의사에 따라 실험을 진행하였다. 또한 각 기능에 대한 제스처를 도출 한 뒤 도출 된 제스처의 의미와 이를 선택한 이유에 대해 간단히 기입하게 하고 실험이 끝난 뒤 제스처에 관한 심층 인터뷰를 진행하였다.

3. 5. 실험참여자로부터 도출된 제스처

각 기능 별로 도출된 제스처는 제스처 형태의 유사성, 방향(상, 하, 좌, 우, 대각선, 시계방향, 반시계방향)의 유사성, 인터뷰 결과를 통한 인지모델의 분석(제스처를 취한 이유)등을 고려해 유사한 제스처를 통합하였다. 인지모델 분석을 통해 손가락의 개수나 종류가 아무런 의미를 가지지 않았다면 이 역시 동일한 제스처 그룹으로 통합하였다. 예를 들어 “뒤로가기”에 해당하는 제스처에서 검지 손가락을 반시계방향으로 돌리는 제스처 또는 엄지를 제외한 네 손가락을 반시계 방향으로 돌리는 제스처가 있었다. 해당 제스처를 취한 실험 참여자는 실제로 자신이 “뒤로 가기” 위해 시계를 돌리는 상상하였다고 응답하여 인지모델이 유사하였고, 제스처 방향역시 동일하였다.

또한 <그림 1>에서처럼 ‘슬라이드를 내리다’에 해당하는 제스처 중에는 한 손가락을 포인팅 해 방향을 지시하는 제스처 또는 두 손가락을 포인팅 해 방향을 지시하는 제스처가 있었다. 해당 제스처를 취한 실험 참여자는 실제로 자신이 해당 페이지에서 기준점을 선택해 내린다고 답해 인지 모델이 유사하였고 제스처 방향도 아래쪽을 향하는 것으로 동일하였으며, 제스처 형태 또한 유사하였다.

인터뷰 결과 손가락의 개수는 아무런 의미를 가지지 않았다. 따라서 표현방식(손가락의 개수)이 다르더라 하더라도 두 제스처를 동일한 제스처로 통합 하였다. 이를 통해 참여자들로부터 도출된 제스처를 총 6가지그룹의 9가지 제스처를 도출할 수 있었다.


Figure 1 An example of grouping gesture defined by users
4. 연구결과
4. 1. 각 기능 별 Top제스처

각 기능에 제스처 중 빈도수가 가장 높았던 제스처를 Top 제스처로 분류하여 정리하였다. 각 기능 별 Top 제스처의 빈도율은 평균 68.88%(최소45%,최대85%)이었다. 즉 평균적으로 각 기능에 대하여 실험참여자 20명 중 약 14명 정도가 Top 그룹에 속한 제스처와 유사한 제스처를 도출 하였다. 각 기능 별로 제시된 Top제스처와 각각의 빈도수를 <표4>에 정리 하였다.

Table 4
최종 선정한 제스처 도출 기능

  분류   상세 설명 빈도 대표 제스처
1 선택   톡톡찌르듯이 검지손가락으로 선택 16
2 스크롤 올리기 포인팅 후 방향 지시 15
내리기 15
3 옆으로
넘기기
  포인팅 후
방향 지시
9
4 크기 키우기 두 손가락을 이용하여 넓히기 17
줄이기 두 손가락을 이용하여 좁히기 17
5 중립적인
상태
  손가락 포인팅을 없애고 주먹상태 15
6 수준에
대한
상태조정
뒤로
가기
반시계 방향으로 회전 10
앞으로
가기
시계 방향으로 회전 10

4. 2. 의견 일치도 점수

의견 일치도 점수는 실험 참여자로부터 도출된 제스처의 그룹 개수와 그 그룹 내 제스처 개수를 이용하여 실험 참여자들의 의견 일치 정도를 계산 한 것으로 워브룩(Wobbrok et al., 2005) 제안한 <Equation 1>을 사용하였다.

Aii번째 기능의 의견 일치도 값을 의미하며, Gi는 번째 i기능에 포함된 전체 제스처의 개수인 전체 실험참여자 수를 말한다. Giji번째 기능 중 j번째 제스처를 취한 실험참여자의 수를 의미한다(Choi et al, 2012). 예를 들어 20명의 실험참여자에게서 도출된 ‘크기’ 기능에 해당하는 유사 제스처 그룹이 3그룹이었고, 각 그룹에 해당하는 제스처를 취한 실험 참여자의 수가 17, 1, 2 명이라면 ‘크기’에 대한 실험 참여자들의 의견 일치도 값은 0.735이다.

<크기> = (17/20)2+(1/20)2+(2/20)2 = 0.735

의견 일치도는 실험참여자로부터 도출된 제스처의 그룹 개수와 그 그룹 내 제스처 개수를 이용하여 계산되었기 때문에 의견일치도 값의 크기가 클수록 해당 기능에 대해 유사한 제스처가 도출된 것으로 해석할 수 있다. 의견일치도가 가장 높은 기능은 ‘크기’ 제스처로 의견 일치도가 0.735이었으며, 선택이 0.665로 다음으로 높았다. 가장 낮은 의견 일치도는 ‘옆으로 넘기기’ 제스처와 ‘수준에 대한 상태 조정’이 각각 0.315로 의견일치도가 가장 낮았다.

4. 3. 제스처 도출 이유

본 실험에서는 각각의 조작 기능 별 제스처를 도출한 직후 해당 제스처를 도출한 이유에 대해 인터뷰를 실시하였다. 인터뷰에서 실험 참여자가 응답한 내용을 제스처 관련 선행연구의 제스처 도출 이유에 대한 분류 기준을 참고하여 아래 표로 정리하였다(Choi et al, 2012). 사용자 인터뷰 결과 제스처 도출 원인은 기능의 개념적 의미에 기반 한 경우(개념적 인지모델)와 기능과 관련된 이미지에 기반 한 경우(이미지 인지모델)의 두 가지로 나타났다.

기기/기능의 개념적 의미에 기반 한 경우는 크게 5가지 원인으로 분류할 수 있다. 첫째, 실험참여자는 기기의 기능과 연관되어 머릿속에 떠오르는 추상적인 이미지를 손으로 묘사하였다. 예를 들어, ‘옆으로 넘기기’ 기능에 대한 제스처로 책의 이미지를 상상하고 자신의 손을 이용해 책장을 넘기는 듯 하는 제스처를 표현하는 것이 이에 해당한다.

둘째, 실험참여자는 기능의 개념적 의미가 상하좌우 등 방향과 연관되어 있을 경우 해당 방향을 손가락으로 묘사하였다. 예를 들어, 스크롤의 경우 ‘올리다’의 의미에 기반하여 손가락 두 개를 사용해 포인팅 후 방향을 지시하는 등의 제스처를 도출한 것이 이에 해당한다. 셋째, 실험 참여자는 머릿속에 떠오르는 양과 관련한 개념을 손가락을 넓히거나, 좁힘으로 묘사하였다. 예를 들어, ‘화면을 확대하는 크게 키우기+’를 묘사하기 위해 두 손가락을 이용해 손가락을 펼치는 제스처를 도출 하는 것이 이에 해당한다. 넷째, 실험 참여자는 기기의 기능과 관련한 자신의 상태를 묘사하였다. 예를 들어, ‘중립적인 상태’ 에서 어떠한 선택도 하지 않는 의미를 전달하기 위해 ‘주먹 쥔 상태’ 의 제스처 도출이 이에 해당한다. 다섯째, 실험참여자는 기능을 실행시키기 위해 기능과 1:1 짝지을 수 있는 일반적으로 많이 쓰이는 관용적 표현을 묘사하였다. 예를 들어, ‘선택하기’를 위해 ‘한 손가락을 마우스를 클릭하듯이 두 번 두드리는 제스처’가 이에 해당한다.

기기와 관련된 이미지에 기반 한 제스처는 크게 3가지로 분류할 수 있다. 첫째, 실험참여자는 기기의 기능을 실제로 사용하는 모습을 묘사하였다. 예를 들어 ‘크기 조정’ 기능을 수행하기 위해 실제 스마트폰 화면을 이용하여 화면을 키우는 모습을 묘사하여 ‘두 손가락으로 크기 키우기’ 제스처가 이에 해당한다. 둘째, 실험참여자는 움직이는 기기의 모양을 그대로 묘사하였다. 예를 들어, ‘스크롤’기능에서 앱 화면 우측에 위치한 스크롤 움직이는 모습을 묘사하여 손가락을 이용하여 스크롤을 내렸다가 올렸다가 하는 제스처가 이에 해당한다. 셋째, 실험참여자는 기기 내에 삽입된 아이콘을 떠올리고 아이콘의 모습을 묘사하였다. 예를 들어, ‘뒤로 가기’ 기능을 수해하기 위해 TV나 Microsoft word 프로그램에 있는 ‘되돌아가기 기호(↶)의 모양을 묘사하여 ‘반 시계방향으로 반원을 그리는 제스처’가 이에 해당한다. 실험참여자는 제스처를 도출하기 위해 머릿속에 떠오른 방향과 관련된 개념을 묘사하였다고 응답한 비율이 35%로 가장 많았다.

Table 5
제스처 도출이유

제스처 도출이유 구분 구분 상세 빈도율
개념적
의미묘사
일반개념 머릿속에 떠오른 추상적 개념 묘사 12.22%
방향성 머릿속에 떠오른 방향과 관련된 개념 묘사 35%
양(量)증감 머릿속에 떠오른 양의 증감과 관련된 개념 묘사 8.88%
내 상태 기능과 관련된 자신의 상태 묘사 2.77%
관용 개념 일반적으로 많이 쓰이는 관용적 표현 묘사 3.88%
이미지묘사 사용행동 기기를 실제 사용하는 모습 묘사 20%
기기모양 실제 기기가 움직이는 모양 묘사 8.88%
아이콘 기기 내 아이콘을 떠올리고 이를 묘사 8.33%
100%
(96.96% 반올림)

5. 결 론

본 연구는 사용자가 Leap motion을 사용하면서 같은 기능이거나 동일한 의미를 가지고 있지만 다르게 지정되어 있는 제스처들에 대하여 사용자 중심 도출 방식을 활용하여 3D 핸드 제스처를 도출하였으며 사용자로부터 가장 많은 빈도수로 도출된 제스처를 제시하였다. 실험 방법은 사용자 기반 도출 기법 안에서 이미지 제시 도출 기법을 사용하였으며, 부분적으로 WOZ기법을 사용하여 실험참가자가 실험에 좀 더 몰입 할 수 있도록 하였다. 또한 제스처 도출 실험 직후 심층 인터뷰를 진행하여 사용자의 제스처 도출 이유를 파악하였다.

본 연구에서는 제스처의 빈도수를 측정하여 기능별 Top제스처를 총 6가지 분류의 9가지 제스처를 도출하였다. 이후 선행연구의 제스처 도출 이유에 대한 분류기준을 참고하여 개념적 묘사, 이미지 묘사로 나누고 각각의 도출된 제스처에 대한 Insight를 도출하였다. 여기서 방향성이 35%로 가장 많은 빈도를 보였고, 기능과 관련된 자신의 상태를 묘사하는 내 상태에 관한 빈도가 2.77%로 가장 낮게 나왔다.

본 연구 결과는 Leap motion의 주요 기능들의 제스처에 대해 사용자 입장에서 알아보고 이해하기 위한 연구로서 앞으로의 Leap motion앱의 개발자들이나 유사 3D제스처 개발자들에게 해당 기능 혹은 해당기능과 유사한 기능에 대한 제스처 설정 방향을 도출 하는 것에 있어 도움을 줄 수 있을 것이다.

본 연구의 한계점 및 향후 연구 방향은 다음과 같다. 본 연구는 일반화를 시키기에는 실험참가자 수가 부족하다는 지적을 받을 수 있다. 또한 제스처 도출 결과 제스처 빈도가 거의 비슷하였던 다른 제스처가 존재하였다. 그러나 본 연구에서는 제스처 선정을 빈도수로 정하여 Top제스처를 도출하였기 때문에 의미 있는 제스처들이 간과될 수 있으므로 다음의 연구에서는 제스처 선정 시 추가적 검증이 필요할 것이다.

Acknowledgments

This research was supported by the Ministry of Education, South Korea, under the Brain Korea 21 Plus Project (NRF-2014S1A5B1014964; BK21 Plus:10Z20130000013)

이 연구는 2014년 정부(교육부)의 재원으로 한국연구재단의 지원을 받아 수행된 연구임 (NRF-2014S1A5B1014964; BK21 Plus:10Z20130000013)

References
  1. 1 . Akers, D. (2006, April). Wizard of Oz for participatory design: inventing a gestural interface for 3D selection of neural pathway estimates. In CHI'06 Extended Abstracts on Human Factors in Computing Systems (pp. 454-459). ACM. [https://doi.org/10.1145/1125451.1125552]
  2. 2 . Callaham, J. (2012, June). Interview: We chat with the CEO of Leap Motion. Neowin. Retrieved April, 2014, from http://www.neowin.net/news/interview-we-chat-with-the-ceo-of-Leap-motion.
  3. 3 . Choi, E., Kwon, S., Lee, D., Lee, H., & Jung, M. (2012). Design of hand Gesture for Smart Home Appliances based on a User Centered Approch. Journal of the Korean Institute of Industrial Engineers, 38(3), 182-190. [https://doi.org/10.7232/JKIIE.2012.38.3.182]
  4. 4 . Dipietro, L., & Sabatini, A. M. (2008). A survey of glove-based systems and their applications. IEEE transactions on systems, man, and cybernetics- part C : Applications and reviews, 38(4), 461- 482.
  5. 5 . Jang, M. (2013). Study of gesture metaphor changes according to the smart TV functions and user's hand context. (Master's thesis). Sungkyunkwan Univ. Seoul, Korea.
  6. 6 . Kim, H. J., Jeong, K. H., Kim, S. K., & Han, T. D. (2011, December). Ambient wall: Smart wall display interface which can be controlled by simple gesture for smart home. In SIGGRAPH Asia 2011 Sketches (p. 1). ACM.
  7. 7 . Kühnel, C., Westermann, T., Hemmert, F., Kratz, S., Müller, A., & Möller, S. (2011). I'm home: Defining and evaluating a gesture set for smart-home control. International Journal of Human-Computer Studies, 69(11), 693-704.
  8. 8 . Kwon, S. (2013, Aug). ALLIPS, launching the 'leap motion' controling a screen without mouse. Retrieved April, 2014, from http://kr.aving.net/news/view.php?articleId=720517&Branch_ID=kr&rssid=naver&mn_name=news.
  9. 9 . Leap motion. home page. (2014, June). Product. Retrieved from https://www.Leapmotion.com/product.
  10. 10 . Neßelrath, R., Lu, C., Schulz, C. H., Frey, J., & Alexandersson, J. (2011). A Gesture Based System for Context–Sensitive Interaction with Smart Homes. In Ambient Assisted Living (pp. 209-219). Springer Berlin Heidelberg.
  11. 11 . Nielsen, M., Störring, M., Moeslund, T. B., & Granum, E. (2004). A procedure for developing intuitive and ergonomic gesture interfaces for HCI. In Gesture-Based Communication in Human-Computer Interaction (pp. 409-420). Springer Berlin Heidelberg.
  12. 12 . Nielsen, M., Störring, M., Moeslund, T. B., & Granum, E. (2004). A procedure for developing intuitive and ergonomic gesture interfaces for HCI. In Gesture-Based Communication in Human-Computer Interaction (pp. 409-420). Springer Berlin Heidelberg.
  13. 13 . Ouchi, K., Esaka, N., Tamura, Y., & Hirahara, M. (2005, May). Magic Wand: an intuitive gesture remote control for home appliances. In Active Media Technology, 2005.(AMT 2005). In Proceedings of the 2005 International Conference on (p. 274). IEEE.
  14. 14 . Pan, G., Wu, J., Zhang, D., Wu, Z., Yang, Y., & Li, S. (2010). GeeAir: a universal multimodal remote control device for home appliances. Personal and Ubiquitous Computing, 14(8), 723-735.
  15. 15 . Saffer, D. (2008) Designing Gestural Interfaces: Touchscreens and interactive devices. O’Reilly Media, Inc.
  16. 16 . Saffer, D. (2008). Designing Gestural Interfaces : Touchscreens and interactive devices. O’Reilly Media, Inc.
  17. 17 . Shin, D. (2013). User centric cloud service model in public sectors: Policy implications of cloud services. Government Information Quarterly, 30(2), 194-203.
  18. 18 . Shin, D. (2013). User experience in social commerce: In friends we trust. Behavior and Information Technology, 32(1), 52-67.
  19. 19 . Simonite, T. (2012, Dec). Leaping Into the Gesture-Control Era: Technology that accurately tracks finger motions could revolutionize desktop and mobile computing. Retrieved April, 2014, from http://www.technologyreview.com/news/507956/Leaping-into-the-gesture-control-era/.
  20. 20 . Stern, H. I., Wachs, J. P., & Edan, Y. (2008, August). Optimal consensus intuitive hand gesture vocabulary design. In Semantic Computing, 2008 IEEE International Conference on (pp. 96-103). IEEE.
  21. 21 . Xu, W., &Lee, E. J. (2013). A New NUI Method for Hand Tracking and Gesture recognition Based on User Experience. Proceedings of International Journal of Security and its Applications, 7(2), 149-158.
  22. 22 . Wilson, A., &Shafer, S. (2003, April). XWand: UI for intelligent spaces. In Proceedings of the SIGCHI conference on Human factors in computing systems (pp. 545-552). ACM. [https://doi.org/10.1145/642704.642706]
  23. 23 . Wobbrock, J. O., Morris, M. R., &Wilson, A. D. (2009, April). User-defined gestures for surface computing. In Proceedings of the SIGCHI Conference on Human Factors in Computing Systems (pp. 1083-1092). ACM.
  24. 24 . Yeo, H., & Kim, P. (2011). A Study on the Influences of Korean Early Adopters' Propensity and Lifestyle for IT Products' Purchase Decision. Korean Academic Society of business Administration, 26(2), 313-323.