본문 바로가기

“실감 메타버스, 다중 체성 감각 경험하는 형태로 발전”

햅틱 피드백 디바이스, 상호작용 기술 등으로 구현 가능

기사입력 2022-05-23 08:04:52
페이스북 트위터 카카오스토리 네이버블로그 프린트 PDF 다운로드
“실감 메타버스, 다중 체성 감각 경험하는 형태로 발전”
한국과학기술연구원(KIST) 유범재 연구단장(‘XR(AR, VR) 기반의 실감형 메타버스 구현 기술' 세미나 영상 캡처)

[산업일보]
“가상세계와 현실세계가 연결된 실감 메타버스는 사용자 정보를 수집하고 다중 체성 감각을 느낄 수 있는 햅틱 피드백 디바이스(Haptic Feedback Device), 상호작용(Interaction) 기술 등을 통해 발전할 것”

한국과학기술연구원(KIST) 유범재 연구단장은 20일 ‘XR(AR, VR) 기반의 실감형 메타버스 구현 기술' 세미나에서 실감 메타버스의 개발 방향에 대해 전망했다. 한국미래기술교육연구원이 주최한 행사는 전경련회관 컨퍼런스센터에서 열렸으며, 온라인에서도 생중계 됐다.

유범재 단장은 “실감 메타버스는 사용자가 디바이스를 착용하면, 실감교류 플랫폼에서 사용자 위치, 자세, 동작 등의 데이터를 수집해 4차원 가상 정보를 제공한다”면서 “사용자는 착용형 휴먼 인터페이스를 통해 촉감, 청각 등의 실감 피드백을 받을 수 있다”고 말했다.

컴퓨터 사용은 모니터, 키보드, 마우스 등이 필요하지만, 최근에는 VR 헤드셋, AR글래스 착용으로 핸드 컨트롤러나 맨손을 통해 작업이 가능한 시스템이 개발되고 있다. 앞으로는 가상공간에서의 촉감, 진동 등을 느낄 수 있는 햅틱 슈트 형태로 발전한다는 게 유 단장의 생각이다.

착용형 손가락 동작 캡처 장치인 ‘CHIPCAP'은 햅틱 피드백 디바이스의 발전 과정을 보여주는 대표적인 사례다. 손가락 관절에 위치한 기어를 통해 움직이는 장치는 3차원 자기장 센서를 이용해 손가락 끝의 정보를 제공할 수 있다.

상호작용 기술에서 유 단장이 강조한 것은 아바타와 멀티 모달(Multi Modal) 감각운동이다. 그는 “실감 메타버스에 사용자들이 접속하면, 아바타를 통해 대화, 정보 공유 등의 물리적 상호작용을 할 것”이라며 “햅틱 피드백 디바이스를 착용한 사용자에게 다중 체성 감각 피드백을 주는 멀티 모달(Multi Modal) 감각운동 기술이 핵심”이라고 설명했다.



0 / 1000
주제와 무관한 악의적인 댓글은 삭제될 수 있습니다.
0 / 1000




추천제품