• 검색 결과가 없습니다.

모바일 가상현실 환경을 위한 텐저블 인터페이스

N/A
N/A
Protected

Academic year: 2021

Share "모바일 가상현실 환경을 위한 텐저블 인터페이스"

Copied!
12
0
0

로드 중.... (전체 텍스트 보기)

전체 글

(1)

1. 목 차

>>>

1. 서론

2. 모바일 Tangible 인터페이스의 설계 방법 3. 모바일 UI의 설계

4. 센서 시스템을 이용한 모바일 텐저블 인터페이스 적용 사례 5. 결 론

출처 : 제2회 ujava.org세미나 자료

(그림 1) 모바일 시스템의 디저털 컨버전스

1. 서 론

최근 휴대전화와 같은 모바일 환경에서 사용자 의 이용을 촉진시키고, 모바일 통신서비스의 편 리성을 추구하고 향상시키기 위해서 휴대기기에 카메라, 게임, 멀티미디어 기능이 부가되고, DMB, 휴대인터넷을 비롯한 새로운 개념의 서비 스가 등장하는 등 모바일 컨버전스가 심화되고 있다.

이와 더불어 키보드, 마우스, 디스플레이와 같 은 기존의 입출력의 한계를 뛰어 넘는 새로운 입 출력 인터페이스가 모색되고 있다. 이와 같은 흐 름 중에서 POST-GUI라는 사용자 인터페이스 연 구가 활발히 진행되고 있다. 이는 물리적 세계와 디지털 세계의 Gap(갭)을 줄이고 GUI보다는 보 다 더 직관적인 조작을 사용자에게 제공하는 것 을 목표로 하고 있다.

디지털 콘텐츠 분야에서 있어서도, 소니와 Microsoft가 하드코어 게이머를 대상으로 고가의

게임기 시장에서 경쟁하는 동안 최근 닌텐도에서 는 가족이 함께 즐길 수 있는 새로운 차세대 게임 기로서 Wii가 발표되었다. 이 게임기는 세계적으 로도 획기적인 게임기로 인식되고 있다. 그 이유 옥수열 (동명대학교)

모바일 가상현실 환경을 위한

텐저블 인터페이스

(2)

(그림 3) 다양한 텐저블 인터페이스 연구 (그림 2) POST USER INTERFACE

는 바로 리모콘형 텐저블 인터페이스(실감형 인 터페이스) 도입이다.

이러한 현상은 휴대전화를 대표로 하는 모바일 컴퓨팅분야에서도 사용자의 물리적

인 인터렉션, 즉 직접적인 신체감각의 접촉이 나 직관적인 조작을 통해 다차원적으로 정보를 인식하거나 전달할 수 있는 텐저블 인터페이스의 요구가 매우 높아지고 있다.

그러나 국내에서는 첨단기술이 저렴한 가격으 로 빨리 적용되는 분야가 게임기 인터페이스 개 발 분야이기 때문에 새로운 형태의 인터페이스 개발이 게임의 개발과 동시에 진행되기도 하지 만. 최근에는 게임 조작의 한 방법으로 카메라를 이용하여 사람이 직접 몸을 움직여 프로그램을

제어하는 체감형 게임이 증가하고 있는데, 기존의 연구들은 주로 기술적 구현에 치우쳐져 있고 인터 페이스 디자인에 대한 연구는 미비한 실정이다.

또한 이동통신기술의 급속한 발달로 엔터테인 먼트 콘텐츠들은 점차 휴대전화, PDA 등의 정보 기기로의 이동되고 있지만 휴대성 이외에는 아직 까지 특별한 장점을 찾기가 힘든 실정이다

따라서 사용자가 몰입감을 얻기 위해서는 경험 적 요소를 통한 실재적인 형태의 구현이 필요하 고, 여기에 게임에 좀더 다양한 기능이나 재미의 요소를 추가하기 위해서는 효과적인 단순성을 기 반으로 한 텐저블 인터페이스의 접근이 필요하다 는 것을 볼 수 있었다.

그 동안 시청각적인 요소로만 제한되어 왔던 인터페이스의 형태를 보다 더 공감각적인 형태로 확장 시키고 사용자의 물리적인 인터렉션, 즉 직 접적인 신체감각의 접촉이나 직관적인 조작을 통 해 다차원적으로 정보를 인식하거나 전달할 수 있는 텐저블 인터페이스의 개발이 절실히 요구 된다.

이러한 측면에서 향후 모바일 인터페이스에 있 어서 기존의 입출력 인터페이스의 한계를 벗어나 디지털 콘텐츠와 물리적 미디어(센서와 액츄에이

(3)

(그림 4) 휴대형 텐저블 인터페이스 적용 내용(예)

터가 결합된 하나의 물리적 디바이스)가 융합된 직관적일 뿐 아니라 몰입감을 증대시킬 수 있는 모바일 콘텐츠에 적용 가능한 엔터테인먼트형 텐 저블 인터페이스 개발이 확대되어 질것으로 예상 된다.

특히 그 중에서도 다양한 정보를 통합하여 감 지할 수 있는 혁신적인 센서 장치를 통하여 모바 일 사용자의 입력 효율을 극대화하는 기술 개발 요구과 확대될 것이다.개발된 Tangible 인터페이 스는 제한적인 입력 환경 때문에 개발과 서비스 가 어려웠던 새로운 콘텐츠의 상용화를 가능하게 할 것이며, 복잡하고 다양한 제어 신호를 빠르게 입력 받아야 하는 게임이나 엔터테인먼트 콘텐츠 가 모바일 환경에서도 사용자가 만족할 수 있는 수준으로 진화할 수 있는 기반이 될 것이다.

이를 위해서는 무엇보다도 모바일 텐저블 인터 페이스를 구현하기 위하여 사용자의 콘텐츠 선호 도, 센서의 적용 가능 여부 등을 고려하여, 이를 바탕으로 요구에 적합한 인터페이스 디바이를 개 발한 뒤, 실제 게임 형식의 콘텐츠를 제어할 수 있는 기술을 제시할 것이다.

2. 모바일 Tangible 인터페이스의 설계 방법

2.1 모바일 인터페이스의 개요

급속한 반도체 기술의 발전은 획기적인 컴퓨터

및 통신 기술의 발전을 가져왔고 초고속 정보화 를 가속화시켜 통신의 패러다임과 인류의 생활 패턴을 바꾸어 놓았다. 또한 컴퓨터의 초소형 출 력장치와 저장장치 및 센서나 음성인식을 기반으 로 한 컴퓨터 입력 방식의 변화, 이동 통신의 발 전 등을 통합한 새로운 컴퓨팅 시대를 요구하고 있다. 최근에는 노트북, 개인휴대 단말기(PDA) 등을 비롯한 여러 가지 형태의 휴대용 컴퓨터의 등장으로 가지고 다니는 컴퓨터의 시대를 지나 몸에 지니는 즉 입는 컴퓨터의 시대로 접어들게 하고 있다. 휴대성과 편의성을 함께 갖춘 휴대용 컴퓨팅 기기로 시간과 장소에 제약을 받지 않고 정보를 처리할 수 있는 시스템을 통해 특정 업무 를 처리하거나 무선 통신망을 통해서 인터넷과 연결하여 정보를 처리할 수 있으므로 관련 기술 과 제품의 발전이 유비쿼터스 컴퓨팅으로 점차 확대될 것으로 전망되고 있다..

이와 동시에 최근 들어, 컴퓨터게임을 통한 엔 터테인먼트 산업이 증대되고 사용자에게 몰입감 및 실체감을 향상시키기 위하여 실감효과를 사용 하는 디지털 콘텐츠에 대한 관심이 고조되고 있다.

특히, 실감효과를 실현하기 위한 하나의 기술 인 텐저블 인터페이스가 다양한 애플리케이션 또 는 생활공간 안에서의 스마트 오브젝트로 활용하 여 사용자에게 부가가치 서비스 제공하기 위한 연구가 진행되고 있으며 그 중에서 최근에는 직 관적이고 자연스러우면서 연속적인 입력을 받을 수 있는 모션 인터페이스는 모바일 기기에서 사 용할 수 있는 매우 효과적인 인터페이스가 될 것 이라고 예상하고 있다. 사용자 모션을 이용한 텐 저블 인터페이스 경우 현실에 가까운 메타포()의 인터랙션이 가능하며 또한 직접적인 조작이 가능 하여 다양한 행동경험에 도움을 얻을 수 있다. 이 는 또한 모바일 장치와 모션 인터페이스의 결합 이 3차원 인터페이스로서 효과적이다. 최근에는

(4)

이러한 기술을 디지털 콘텐츠 분야의 하나인 디 지털 엔터테인먼트 분야에 접목 시키려는 시도가 이루어지고 있다. 본 장에서는 텐저블 인터페이 스를 중심으로 한 모바일 환경에서의 인터페이스 구성요소 분석 및 설계 방법에 대해 제시하고자 한다.

(그림 5) 인간-기계 시스템에서의 인터페이스

2.1.1 인터페이스의 정의

인터페이스(interface)는 사물간 또는 사물과 인간 간의 의사소통이 가능하도록 일시적 혹은 영속적인 접근을 목적으로 만들어진 물리적, 가 상적 매개체를 의미한다. 인터페이스는 초기 문 자 명령어 방식의 사용자 인터페이스 방식으로 이루어지다 원하는 정보를 얻거나 사물을 조작하 는 점에서 불편함이 있어 점차 그래픽을 기본으 로 한 그래픽 사용자 인터페이스 방식으로 바뀌 었다. 현재에는 다양한 방식의 인터페이스에 대 한 연구와 개발로 인해 여러 가지 사용자 인터페 이스 기술이 알려지고 있다.

2.1.2 사용자 인터페이스(User Interface, UI) 사람(사용자)과 사물 또는 시스템, 특히 기계, 컴퓨터 프로그램 등 사이에서 의사소통을 할 수 있도록 일시적 또는 영구적인 접근을 목적으로 만들어진 물리적, 가상적 매개체를 뜻한다. 사용 자 인터페이스는 크게 사용자가 시스템을 조작하 는 입력과 시스템이 그로 인한 반응, 결과를 보이 는 출력으로 나눌 수 있다. 사용자 인터페이스를 판단하는 기준으로 사용성이 있다. 좋은 사용자

인터페이스는 심리학과 생리학에 기반하여, 사용 자가 필요한 요소를 쉽게 찾고 사용하며 그 요소 로부터 명확하게 의도한 결과를 쉽게 얻어 낼 수 있어야 한다.

2.1.3 그래픽 사용자 인터페이스(Graphical User Interface, GUI)

컴퓨터를 사용하면서, 그림으로 된 화면 위의 물체나 틀, 색상과 같은 그래픽 요소들을 어떠한 기능과 용도를 나타내기 위해 고안된 사용자를 위한 컴퓨터 인터페이스이다. 그래픽 사용자 인 터페이스에서 어떤 요소를 제어하려면 그 요소에 해당하는 그래픽을 직접 조작하여야 한다. 일반 적으로 2차원이나 3차원의 가상공간에서 그 기능 을 은유적 혹은 대표적으로 나타내는 그래픽으로 요소를 꾸미고 이를 선택, 이동, 복사하여 작동한 다. 이를테면, X자와 같은 형태의 그래픽 요소는 이를 선택하면 삭제하거나 취소하는 기능을 수행 하게 되며 어떤 파일을 나타내는 아이콘을 어느 위치에서 다른 하드 디스크의 장소를 나타내는 공간으로 이동하면 복사가 된다. 이전의 명령 줄 입력 인터페이스에서는 Copy와 같은 명령어에 그 파일의 현재 이름과 장소를 입력하고 연달아 이동할 장소를 입력하는 방식으로 실행해야 하니 불편하다.

2.1.4 그 외의 사용자 인터페이스

물리적 사용자 인터페이스(PUI) : 버튼이나 스위치, 손잡이, 레버 같이 인간이 도구나 장비와 상호작용하는 것을 도와주는 일련의 물리적 매개 체, 즉 어떤 기기나 제품에 있어, 버튼의 배치나 손잡이 모양, 외형의 그립감 등 우리가 만지고 조 작할 수 있는 모든 것들의 물리적 특성을 말한다.

인지형 사용자 인터페이스(Perceptual User Interface, PUI) : 사용자 얼굴 표정을 인식하고 제

(5)

스처의 의미를 이해해 사용자의 뜻에 반응하는 UI 이다.

Nonverbal Interface : 사람과 사람이 대화하는 동안 말하는 속도, 리듬감, 강세 뿐아니라 의도적 으로나 무의식적으로 말로는 표현할수 없는 행동 등 비구술적 감각양식을 상호작용에 이용하여 전 달하고자 하는 정보를 증가 시킬수 있는 UI 이다.

실세계지향 인터페이스 : 인간이 생활하고 있 는 실세계공간과 컴퓨터가 대상으로 하고 있는 정보공간을 연결하는 인터페이스로서 키보드 및 마우스 등이 있다. 그러나 이들 인터페이스는 단 지 정보공간상의 인간과 컴퓨터의 대화를 지원하 는 도구로서만 사용되었을 뿐, 실세계와의 행동 에 있어서 갭(Gap)이 너무나 크다. 인간이 일상적 으로 직면하는 다양한 상황을 인식하고 그 상황 에 따른 유익한 정보를 제공해 인간을 지원하는 인터페이스의 형태를 실세계 지향 인터페이스 (real world oriented interface)라고 말한다. 실세 계 지향 인터페이스의 유력한 분야로서는 증강 현실(Augmented Rearity)가 있다. 증강 현실은 실 세계와 정보세계를 융합하는 것에 의해서 실세계 공간을 컴퓨터정보로 보강해 적극적으로 확장하 고자 하는 인터페이스이다.

2.1.5 Mobile 인터페이스

최근의 모바일 환경은 기술의 발달에 힘입어 단순히 통화를 넘어서 TV, 카메라, 광고, 원격제 어 등 여러 기능이 이동전화와 연결되고 또한 휴 대기기에 새로운 기능, 서비스, 미디어 등이 융합되 는 모바일 융합(mobile convergence) 시대에 있다.

모바일 UI 디자인은 모바일 기기의 특성에 맞 도록 정보를 구조화 하는 정보설계 분야(Infor- mation Architecture)와 효과적 정보전달을 위한 표현설계 분야(Interface Design)를 포함해야 한

다. 모바일 기기의 UI 역시 초기에는 문자 중심의 사용자 인터페이스로 이루어지다 모바일 기기의 메모리 용량이나 화면의 크기, 화질 면에서 발전 하여 GUI방식으로 바뀌게 되었다. 하지만 모바 일 기기는 휴대성의 강조로 인한 기기의 소형화 경향과 다양한 활용을 위한 기능 강화 경향을 결 합시키면서, 동시에 사용의 편리함을 추구해야 하는 모바일 인터페이스 디자인은 점차 어려운 과제가 되어 가고 있다. 국내의 모바일 UI 시장은 아직 시작단계에 불과한 실정이다. 이동하기에 용이하면서 동시에 많은 기능을 지녀야 하는 특 성을 지닌 모바일은 계속해서 신기술이 발달하고 있고, 그 기술을 모바일에 접목시키는 일이 중요 하다. 허나 기존의 국내 모바일 UI는 깊이 있는 User Experience Design에 근간을 두지 못하고 색 이나 그래픽에만 지나치게 충실한 점과 동일 회 사 제품이면서도 사용법이 제각기인 점 등 사용 자의 분석이 충분히 반영되지 못하였다. 따라서 앞으로 개발될 모바일 UI는 사용자가 보다 손쉽 게 사용할 수 있게 만들어야 할 것이다.

3. 모바일 UI의 설계

휴대단말기 UI를 설계하는 과정은 요구기능 수집, 메뉴트리 구성, 기능분해, 버튼&Event 정 의, UI흐름도 구성, 상태 정의의 6단계로 나타낼 수 있다.

요구기능 수집 : 휴대단말기는 불특정 다수의 사용자를 대상으로 제품을 기획하며, 또한 UI의 특성상 모든 사용자가 이에 대해 논할 수 있고, 필요한 기능들을 제시하곤 한다. 제품에 대한 사 용자 경험이나 필요에 의한 데이터를 가지고 분 석하여 적절한 방안을 제시하고 이를 일관되게 관리할 수 있는 도구를 갖추는 것이 UI를 시작하

(6)

(그림 6) 휴대폰 UI 디자인 Process

<표 1> 이동전화의 인터페이스가 이용자 만족도에 미치는 영향에 관한 연구, 휴대폰의 메뉴의 깊이 및

이동 버튼수

는 첫 걸음이라고 할수 있다.

메뉴트리 구성 : 휴대폰 소프트웨어는 적게는 40여개에서 많게는 80여개의 어플리케이션, 150 여개 이상의 기능으로 구성된다. 메뉴트리는 전 체 기능을 2~4 단계 정도의 Tree 구조 형태를 통

해 표현되며, UI 컨셉이나 동작방식에 따라 그 크 기 및 형태가 다소 상이할 수 있다. 그러나 일단 사용자가 실제 볼 수 있는 모든 기능은 메뉴트리 상에 표현하는 것이 바람직하다.

기능분해 : 커다란 소프트웨어를 구현하는 기 본적인 접근 방법은 기능의 분해를 통한 모듈화 이다. 적절한 모듈화는 소프트웨어의 개발용이성 과 확장성을 담보하며, 추후 유지보수의 비용을 절감하는 효과가 있다.

버튼 & Event 정의 : 단말기 소프트웨어는 매 순간 발생하는 수많은 이벤트(사건) 들을 통해 동 작하게 된다. 소프트웨어 입장에서 보면, 사용자 가 버튼을 누르는 것도 하나의 사건이며, 특정 모 듈 수행중에 다른 모듈이 인터럽트 신호를 보내 는 것도 하나의 이벤트이다. 버튼을 제외한 다른 이벤트를 고려하는 것은 UI 디자이너가 고려할 부분이 아니라고 할 지도 모르겠으나, 이런 부분 을 고려치 않을 경우 결과적으로는 매우 불완전 한 UI를 제공할 수 밖에 없다.

UI 흐름도 구성 : UI 흐름도의 구성은 UI 구성 에서 가장 핵심이 되는 부분이라 할 수 있으며, Context UI 의 요소를 가장 핵심적으로 반영할 수 있는 부분이다. 흐름도는 전이도(Transition Diagram)의 형태를 가지며, 모듈로 불리는 노드 (node)와 사용자의 행위에 따른 흐름을 표현하는 에지(Edge)로서 흐름을 표현한다.

상태정의 : 각 흐름도에서 노드로서 도출된 상 태들은 화면 구성요소로서 표현이 되어진다. 이 과정에서 참조되는 항목들이 요구 기능들과 모델 에 따라서 사용 가능한 소형 컨트롤(스크롤바, 리 스트, 스핀컨트롤, 에디터등) , 즉 위젯의 모음과 기존에 작성된 상태들을 모아놓은 Database를 참 조하여 작성되어 대표화면으로 구성된다. 이렇게 구성된 대표화면에 이벤트들의 집합에 대하여 해 당 상태가 어떤 다른 상태로 전이가 이루어 지는

(7)

지에 대한 정의를 기술하여 이를 상태전이표 (State Transition Chart)를 통해 표현한다.

3.1 모바일 텐저블(Tangible) 인터페이스

현재, 모바일 장치 들이 발전하고 대중화되면 서 모바일 환경에서 게임, 멀티미디어가 부각되 고 새로운 개념의 서비스 요구가 확대되고 있다.

그러나 모바일 디바이스의 가장 큰 한계는 휴 대성과 사용 편이성을 유지하기 위해 불가피한 입력 인터페이스 제한이다. 이 입력 기능의 한계 를 극복하여 새로운 형태의 텐저블 인터페이스를 제공하는 것은 모바일 컴퓨팅 환경의 핵심적 장 치로서 고급 차세대 서비스를 모바일 통신 환경 에서 제공할 수 있는 토대가 된다. 이를 위해 MEMS기술을 이용한 초소형 센서 예로 가속도 센서, 자이로 센서, 터치센서 등을 이용해 직관적 이고 자연스러우면서 연속적인 입력을 받아 모바 일 환경에 적용한 가능한 텐저블 인터페이스의 연구가 진행되고 있다. 텐저블 인터페이스 경우 현실에 가까운 메타포의 인터랙션이 가능하며 또 한 직접적인 조작이 가능하여 다양한 행동경험에 도움을 얻을 수 있다. 현재는 개발단계로 미성숙 된 시장이나 휴대전화의 대체 수요를 겨냥한 고 기능성 3G 단말기 및 PDA 등에부터 위치검지 보정 등 다양한 형태의 콘텐츠 분야로 확대되어 가면서 융합된 센서 모듈로 확대될 전망이다.

3.1.1 텐저블 인터페이스의 정의

인간의 실감성과 컴퓨터의 인식 기능을 동시에 부여하여 인간과 가상공간을 유기적으로 연결할 수 있도록 하는 차세대 정보통신 기술을 텐저블 인터페이스(Tangible User Interface, TUI)라 한다.

이러한 TUI는 인간의 다양한 지각능력과 운동능 력을 사용자와 대상간의 인터랙션에 반영하고자

개발되어 다양한 구성 요소들의 결합으로 하나의 시스템으로 만들어진다. 이 시스템의 구성요소가 되는 물리적 객체를 ‘텐저블’이라 하며, ‘텐저블’

은 시스템 구성에 있어 입력 장치로만 분류될 수 없으며 그 형태도 손에 잡히는 작은 사물에서 공 간에 이르기까지 다양하다. 국내에는 텐저블 인 터페이스가 ‘촉각적 인터페이스’라고 번역이 되 어 ‘Haptic’이라는 촉각을 나타내는 단어와의 구 분이 명확하지 않게 사용되어지고 있다.

3.1.2 텐저블 인터페이스의 형태

현재 개발되고 있는 텐저블을 분석하여 보면 형태에 따라 크게 네 가지로 분류할 수 있다.

물건 텐저블 : 물건의 형태로서 일정한 형태를 가진 모든 것으로 인공물의 형태 또는 자연물의 형태를 나타낼 수도 있다. 물건 텐저블의 중요한 의미는 컴퓨터의 개념을 실체화 시키는 것이다.

장치 텐저블 : 평면 텐저블과 공간 텐저블이 명확히 구분되는데 비해 물건 텐저블과 장치 텐 저블은 구분이 명확치 않다. 물건 텐저블이 디지 털 정보의 물리적 실체화라고 한다면 장치 텐저 블은 이러한 물건, 평면, 공간 텐저블과 다른 장 치 텐저블을 작동시키기 위한 장치로 구분되며, 다른 텐저블의 디스플레이 또는 출력 장치의 의 미로 정의 할 수 있다.

평면 텐저블 : 실감형 인터페이스는 물리적 공 간과 디지털 공간이 접하는 곳에서 발생하는 면 이다. 따라서 평면은 물리적 공간과 디지털 공간 사이에 가장 직접적인 인터페이스 형태라고 볼 수 있다. 실체화된 환경의 벽, 천정, 선반, 거울 등이 평면 텐저블의 예로 디지털과 물리적 세계 를 연결하기 위한 매개 수단으로 사용된다. 특히 인터랙티브 평면은 프로젝트를 이용하는 증강현 실의 기술을 사용하여 전면 프로젝션이나 후면 프 로젝션 또는 가상 디스플레이 장치 역할을 한다.

(8)

(그림 7) Rekimoto씨의 기울기 센서를 이용한 모바일 인터페이스 조작 개념도

(그림 8) Yee씨는 Peephole display 공간 텐저블 : 공기의 흐름이나 실내 온도, 향

기와 같은 미묘한 속성의 공간적인 표현뿐만 아 니라 복합적인 평면 텐저블, 물건 텐저블 그리고 장치 텐저블 사이의 공간적 관계에서 논의될 수 있다. 물리적인 객체의 형태가 없어 공기, 소리, 빛 등 환경 미디어의 활용은 그 공간에서 그 자체 만으로 활용 될 수 있을 만큼 공간의 비중이 크 다. 즉 물리적 객체들의 결합으로 공간 자체가 정 보를 나타내는 디지털적인 매체가 되는 것이다.

4. 센서 시스템을 이용한 모바일 텐저 블 인터페이스 적용 사례

일본 Sony의 Rekimoto씨는 작은 스크린 장치 를 위해 기울기 조작을 입력으로 사용하는 것을 제안하고 LCD TV와 FASTRAK 트랙커를 이용 하여 그 프로토 타입을 구현하였다. 프로토 타입 시스템을 통하여 기울기를 이용한 메뉴 시스템과 큰 2D 스페이스 네비게이터, 그리고 3D oject뷰 어 시스템을 구현하고 제안하였다. 이를 통해 모 바일 기기에서 모션인식을 사용할 수 있는 가능 성을 제시하였다.

미국의California 대학의 Yee씨는 Peephole display를 제안하였다. peephole display는 일반적 인 모바일기기에서 사용하는 pen interaction 시,

모바일 기기의 화면 크기가 작은 것에서 기인하 여 좁은 workspace의 문제를 위치 인식을 이용하 여 해결하였다. 이를 통해 모바일 기기의 화면보 다 큰 가상의 화면에서 다양한 인터랙션을 수행 할 수 있었다. 한편 모션 인식을 위해서는 optical mouse tracking, 자외선 추적, two-tethered tracking 그리고 magnetic tracker를 이용한 tracking 등을 이용하였다. 그러나 모두 장치 자체에 모션 센서 를 설치하는 형태가 아니라, 외부에 설치된 시스 템의 도움을 받아야 하는 것으로 완전하게 휴대 가능한 형태가 되지는 못했다

한편 모바일 기기가 진정한 모바일 기기로 작 용하기 위해서는 모션 인식도 외부 장치가 필요 하지 않는 self-contained sensing 시스템에 의해 서 이루어질 필요성이 있다. 모바일 기기의 성능 이 발전하여, 외부 처리 장치 없이 모바일 장치의 프로세싱 파워를 이용할 수 있게 되면서, self- contained motion sensing 시스템을 이용할 수 있 게 되었다.

미국 IBM의 Verplaetse씨는 관성 센서이 자체 모션 인식 시스템에 필수적이라고 결론을 얻고 관성센서를 구현하기 위해 필요한 기술들을 기술 하였다.

그에 따르면 자체 모션 인식을 위한 기술로, 가

(9)

(그림 9) 자기 수용계 시스템의 개념도

(그림 10) 센서시스템을 이용한 모바일 기기의 프로토 타입

(그림 11) Xsens 가속도를 이용한 PDA 속도센서와 자이로 센서를 들었다. 가속도센서는

그 자체로 2축의 절대적인 기울기를 인식하는 기 울기 센서로 사용이 가능하기 때문에 다양한 연 구에 적용 되었다. 단 3자유도 이상의 움직임을 인식할 수 없으므로 3차원 환경을 위한 인터페이 스로 사용하기에는 부족함이 있다.

Bartlett[12]는 기울기를 이용한 Scrolling technique 와 버튼이나 터치패드의 도움 없이 다양한 유저 입력을 얻을 수 있는 기울기 제스처를 제시하였다.

MS 연구소의 Hinckley씨 등은 모바일 기기의 인터렉션을 위한 sensing technique을 제안하였다.

적외선 추적센서, 터치센서, 기울기 센서등의 다 양한 센서를 통해 background-sensing을 한 뒤 이 를 이용한 인터렉션을 제안하였다. 2축 선형 가 속도 센서를 기반으로 한 기술기 센서를 이용한 Portrait/landscape display mode감지와 결합된 기 술기 센서를 이용한 scrolling를 제안하였다.

Ireland 국립대학의 Crossan씨 등은 3 DOF 가 속도 센서와 PDA를 이용하여 한 손으로 모바일 장치를 들고 있는 상태에서 손목 기울임을 이용 한 네비게이션에 대한 분석을 하였다.

결과에 따르면 중심에 아래쪽을 향할 때 보다 위쪽을 향할 때, variablitty가 증가하였으면, X축 모션이 Y축 모션 보다 variability가 크다는 결론 을 얻었다. 이 결과는 이후 기울기 센서를 이용한 연구에 이용될 수 있다.

위의 연구 사례와 함께 상업적으로는 일본 Vodafone이 2004년 상반기에 휴대폰 최초로 컨 트롤 패드 인터페이스를 채용한 Mitsubishi의 V401D를 시장에 선보여 큰 관심을 불러일으켰 다. 이 휴대폰의 컨트롤 패드 기능은 휴대폰의 측 면에 ‘컨트롤 패드’라는 새로운 UI를 도입하여 손가락으로 문지르거나 톡톡 두드리는 방법으로 휴대폰을 조작할 수 있도록 한 것이다. 이 외의 기능으로 오토턴 픽처 기능, 손떨림 방지 기능,

(10)

(그림 13) 광선차단 방식의 Neoneod N2

(그림 14) 전기장 왜곡 감지 방식의 iPhone (그림 12) Interactive U.I.의 햅틱

간단한 엔터테인먼트 기능 등을 제공함으로써 이 미징, 엔터테인먼트 등 다양한 분야로의 발전 가 능성을 보여주었다.

가속도 센서를 최초로 휴대폰에 도입한 것은 Fujitsu로 DoCoMo 모델인 라쿠라쿠(樂樂)폰 F672i에 도입되었다. F672i 모델은 가속도 센서 를 이용하여 보수(步數)측정과 칼로리 계산 기능 을 제공하는 등 건강관리에 초점을 맞추었다.

삼성전자의 애니콜 햅틱의 Interactive U.I.는 오감을 자극하는 Multi-Sensory 개념과 모든 메뉴 기능을 직관적으로 사용할 있는 Visualization 개념으로 만들어 졌다. 햅틱은 한 번의 터치로 모든 기능을 실행할 수 있는 ‘easy access’ 방식을 사용하며, Multi-Sensory로 22가지 진동피드백을 이용해 메뉴 이동과 변경에 직관적 으로 반응 할 수 있으며 이로 인하여 더욱 실감나 는 게임 콘텐츠를 즐길 수 있다.

Neonode N2는 화면표시장치의 앞이나 뒤에서 터치를 인식하는 게 아니라, 화면에 적외선 빔을 상하좌우로 뿌리고 그것이 차단되는 것으로 터치 를 인식하는 방식이다. 적외선을 사용하는 방식 임에도 불구하고, Neonode사의 휴대폰은 태양광 아래에서도별로 영향을 받지 않는다.

애플의 iPhone는 컴퓨터 제조업의 대표사인 애 플사에서 만든 터치스키린 기반의 혁신적인 UI와 디자인으로 휴대폰이다. iPhone은 대표적인 기술 로 Multi-touch를 들수 있는데 이 기술은 특정 표 면위의 공간에 균등하게 전기장을 조성하고, 그 공간 안에 들어온 유전체에 의해서 전기장에 왜 곡이 일어났을 때 그 정도를 감지해서 물체의 모 양을 알아내는 방식이다.

위의 모바일 텐저블 인터페이스의 적용사례와 같이 다양한 형태의 센서 시스템이 활용되고 있 다. 그 중에서도 특히 가속도 센서에 주목해야 하 는 이유는 그 다양한 활용 가능성에 있다고 할 수 있다. 특히 GPS 등 위치정보와 연계한 LBS, 방 향이나 위치 등 공간감을 구현하는 게임은 가까 운 장래에 구현될 것으로 예상되며 시장에서의

(11)

(그림 15) Global Mobile Device Market in 2008 기술 동향

반응도 긍정적일 것으로 예상된다. 이에 반해 가 속도 센서를 이용한 기능은 아직 초보적인 수준 이라고 할 수 있다. 센서가 가지고 있는 기술적인 한계도 있으며, 이통사의 서비스와의 연계도 아 직 부족한 편이다.

그러나 특히 최근 정밀전자기계(MEMS) 기술 을 이용하여 방향, 속도, 위치 정보를 동시에 제 공하는 초소형 지자기(地磁氣)센서들이 개발되고 있다. 이런 센서들은 마이크로프로세서를 내장하 고 있어 적은 전력으로도 작동이 가능하며 방향 지시, 찾기, 디스플레이회전, 3차원마우스, 모션 제어, 기울임 보상 등 다양한 기능을 갖추고 있어 성능 향상에 큰 기여를 할 것으로 예상된다. 따라 서 이용자가 원하는 기능을 제공하고 이를 부가 서비스로 적절하게 연결시킨다면 좋은 반응을 기 대할 수 있다.

5. 결 론

현재, 모바일 장치 들이 발전하고 대중화되면 서 모바일 환경에서 게임, 멀티미디어가 부각되 고 새로운 개념의 서비스 요구가 확대되어 가고 있다. 이에 반해 모바일 디바이스의 가장 큰 한계

는 휴대성과 사용 편이성을 유지하기 위해 불가 피한 입력 인터페이스를 제한이다.

이러한 입력 기능의 한계를 극복하여 새로운 형태의 핵심 입력 장치로서 고급 차세대 서비스 를 모바일 통신 환경에서 제공할 수 있는 엔터테 인먼트 텐저블 인터페이스 개발이 중요하다고 할 수 있다.

이를 위해서는 최신 MEMS기술을 이용한 초 소형 센서인 가속도 센서, 자이로 센서 등을 이용 해 직관적이고 자연스러우면서 연속적인 입력을 받아 모바일 환경에 적용한 가능한 텐저블 인터 페이스의 연구 개발 뿐만 아니라 현실에 가까운 메타포의 인터랙션이 가능하며 또한 직접적인 조 작이 가능하여 다양한 행동경험에 도움을 얻을 수 있도록 사용자의 모션 인식을 외부 장치가 필 요하지 않는 self-contained sensing 시스템 행태 로 개발되어야 한다.

이는 기존의 모바일 콘텐츠 서비스 형태의 한 계를 뛰어 넘어 엔터테인먼트형 텐저블 인터페이 스 자체의 상업화를 통한 수익과 휴대전화의 기 능적 한계를 획기적으로 극복하고 휴대전화를 활 용한 서비스에 대한 수요를 창출하여 휴대전화 통신 산업 전반의 성장에 따른 수익 창출 효과가 클 것으로 예상된다.

참 고 문 헌

[ 1 ] H. Ishii, B. Ullmer, “Tangible Bits: Towards Seamless Interfaces between People, Bits and Atoms,” in Proceedings of Conference on Human Factors in Computing Systems (CHI’97), ACM Press, Mar. 1997, pp.234-241.

[ 2 ] F. R. Allen, E. Ambikairajah, N. H. Lovell and B. G. Celler, “Classification of a known sequence of motions and postures from accelerometry data using adapted Gaussian

(12)

mixture models,” Physiol. Meas., Vol.27, Oct.

2006, pp.935-951

[ 3 ] J. Boyle, M. Karunanithi, T. Wark, W. Chan and C. Colavitti, “Quantifying Functional Mobility Progress for Chronic Disease Management,” Engineering in Medicine and Biology Society, 2006. EMBS’06.28th Annual International Conference of the IEEE, 2006, pp.5916-5919.

[ 4 ] J. Chen, K. Kwong, D. Chang, J. Luk and R. Bajcsy, “Wearable sensors for reliable fall detection,” Conf. Proc. IEEE Eng. Med. Biol.

Soc., Vol.4, 2005, pp.3551-3554.

[ 5 ] D. M. Karantonis, M. R. Narayanan, M.

Mathie, N. H. Lovell and B. G.Celler,

“Implementation of a real-time human move- ment classifier using a triaxial accelerometer for ambulatory monitoring,” IEEE Trans. Inf.

Technol. Biomed., Vol.10, Jan. 2006, pp.156- 167.

[ 6 ] N. H. Miller, M. Hill, T. Kottke and I. S.

Ockene, “The Multilevel Compliance Challenge:

Recommendations for a Call to Action: A Statement for Healthcare Professionals,”

Circulation, Vol.95, February 18. 1997, pp.

1085-1090.

[ 7 ] Andrade, R., von Wangenheim, A., Bortoluzzi, M.K., Comunello, E.: Using mobile wireless devices for interactive visualization and analysis of DICOM data. In: IEEE Symposium on Computer-Based Medical Systems (CBMS’ ’03). (2003)

[ 8 ] Thomas, B., Close, B., Donoghue, J., Squires, J., Bondi, P.D., Morris, M., Piekarski, W.: Arquake: An outdoor/indoor augmented reality first person application. In:

Fourth Int. Symp. on Wearable Computers.

(2000)

[ 9 ] Hwang, J., Jung, J., Kim, G.J.: Hand-held virtual reality: A feasibility study. In: ACM Virtual Reality Software and Technology.

(2006)

[10] 옥수열 “모바일 환경을 위한 큐빅형 텐저블 사 용자 인터페이스 개발” 한국정밀공학회, 제26 권 제10호, 2009, pp.32-39.

저 자 약 력

옥 수 열

․․․․․․․․․․․․․․․․․․․․․․․․․․․․․․․․․․․․․․․․․․․․․․․

이메일 : sooyol@tu.ac.kr

∙ 1994년 동아대학교 산업공학과 공학사

∙ 1998년 일본 Tsukuba대학 이공학연구과 공학석사

∙ 2001년 일본 Tsukuba대학 공학연구과 공학박사

∙ 2001년∼2004년 일본 통신종합연구소 연구원

∙ 2004년∼현재 동명대학교 정보통신대학 게임공학과

∙ 관심분야 : 게임 인터페이스, 게임 인공지능, 컴퓨터 그 래픽스, 가상현실

참조

관련 문서

낙뢰관측시스템에는 방향탐지법을 이용한 LLP(Lightning Location and Protection)시스템과 시간도달차법을 이용한 LPATS(Lightning Positioning and Tracking System)

낙뢰관측시스템에는 방향탐지법을 이용한 LLP(Lightning Location and Protection)시스템과 시간도달차법을 이용한 LPATS(Lightning Positioning and Tracking

이번 연구에서는 신경생리학적 방법으로 피젯 토이의 스트레스 감소 효과를 검증한 선행 연구의 결론을 바탕으로 Eye Tracking (시선추적) 방법, 스트레스 호르몬(코티솔)

• To compare this neural activity with MI of a human with spinal cord injury, MN performed a step tracking, ‘center-out’ task using the neural

Human Actions Tracking and Recogni tion Based on Body Parts Detection via Artificial Neural Network.. ○ 인공 신경망 -&gt;

Human Actions Tracking and Recogni tion Based on Body Parts Detection via Artificial Neural Network.. ○ 인공 신경망 -&gt;

In this paper, we propose a method to guarantee the system life as passive elements by using high efficiency operation and analog devices by tracking

This thesis presents a nonlinear PID controller that can enhance the tracking performance of the conventional linear PID controller to achieve a