제임스딘딘의
Tech & Life

수행 프로젝트 이력/Air Haptic Glove [2011.07~09]

데이터 글러브 동작 테스트 영상

제임스-딘딘 2012. 10. 20. 21:41

Air Haptic Glove 프로젝트 초기의 데이터 글러브 테스트 영상 입니다.


3D Rendering Part : 전영호

3D Rendering Engine : microsoft XNA 3.1

Implement Language : C#

Physics Engine : JigLibX.Net

3D Modeling : 3D studio max 2011


Hardware Part : 김재민, 권기우

MCU : cortex m3

acceleration sensor, magnetic sensor, flex sensor : can`t remember



 첫번째 영상은 데이터글러브를 착용한 사용자의 손가락 구부림 정도를 추정하여 3D 손에 적용하는 테스트 영상이다. 프로젝트 초기의 영상이라 손가락 떨림 보정이 적용되어있지 않은 것을 알 수 있다.



'손가락 움직임 추정' 테스트 영상

flex 센서 5개를 이용하여 손가락의 움직임을 추정하고 3D로 표현하였다.




 두번째와 세번째 영상은 데이터글러브를 착용한 사용자의 손 자세를 추정하여 3D 가상손에 적용하는 것을 테스트하는 영상이다. 역시 떨림 보정이 전혀 되어있지 않아 3D 손이 심하게 떨리는 것을 확인할 수 있다.



'손 자세 추정' 테스트 영상 1

가속도 센서 + 지자기 센서 를 이용한 ARS 모듈을 만들고 자세 추정값을 이용하여 추정한 손의 자세를 3D로 표현하였다.





'손 자세 추정' 테스트 영상 2
가속도 센서 + 지자기 센서 를 이용한 ARS 모듈을 만들고 자세 추정값을 이용하여 추정한 손의 자세를 3D로 표현하였다. (부가적인것)또한, world 전체에 거대한 sphere를 씌우고 내부에 낮/밤 텍스쳐를 반씩 입혀 를 서서히 회전시키면서 낮/밤의 전환을 구현 한 것을 확인 할 수 있다.



다음 영상은 물리엔진 테스트 영상이다.
3D공간 상에서 손으로 물체를 잡거나 던지는 등의 행위를 구현하기 위하여, 3D공간상에 물리엔진을 적용하였다.
테스트 영상에서 나오는 공들은 물리 테스트를 쉽게 하기 위해 Camera 위치에서부터 발사되도록 한 것이며, height map으로 생성한 지형, 공끼리, 그외의 물체(흰 상자)와의 충돌, 튕김 등의 물리 테스트를 하고 있는 모습이다.


물리 엔진 테스트 영상
 물체 picking 을 구현하였고, 마우스 가운데를 이용해 물체를 잡아 던질 수 있도록 하여 물리 테스트를 수월하게 하였다.

 아직 shadow mapping을 하지 않아서 그림자가 적용되지 않은 시점에서의 테스트 영상이기에, 공의 위치에 대한 인지가 부정확 함을 확인 할 수 있다. 최종 버전은 shadow mapping이 완료되어 그림자를 통해 공간상의 물체들에 대한 위치 인지도와 입체감을 높이기 위해 노력했다. (영상은 진행project-Air Hapitc Glove 카테고리의 이전 포스팅에서 확인 가능)