2004 Fiscal Year Annual Research Report
力覚と触覚を介してインタラクション可能な等身大バーチャルヒューマンの開発
Project/Area Number |
16700087
|
Research Institution | Tokyo Institute of Technology |
Principal Investigator |
橋本 直己 東京工業大学, 精密工学研究所, 助手 (70345354)
|
Keywords | 等身大仮想環境 / バーチャルヒューマン / 力覚提示 / 没入型ディスプレイ / モーションキャプチャ / データベース |
Research Abstract |
本研究では,等身大バーチャルヒューマンのための基礎環境の構築を中心に行なった. まず,力覚提示装置に関しては,ワイヤ駆動型力覚提示装置SPIDARを発展させた"SPIDAR-H"を開発した.計測用空間の壁に自由に取り付けられるモータマウントを開発することで,映像提示を阻害することなく力覚提示を行なうことを可能にした.8つのモータによる出力は,安全性を考慮して最大30[N・m]とした. このSPIDAR-Hと没入型スクリーンを組み合わせて,仮想世界と実際の人間がインタラクションすることで自然な人間の動作データを効果的に取得するReactive Motion Captureを提案した.人間の自然な動作は対象物とのインタラクションによって生じるリアクションであると考えることができる.通常のモーションキャプチャでは,動作を行なう環境,すなわち,動作対象物体や相手方の人間が必要となる.提案システムではこれらを全て仮想世界の中で用意することで,一人のユーザだけで多様な動作データを獲得することを可能にするものである. 本研究では,この提案システムの有効性を確認するために,1)等身大映像による視覚を介したリアクティブ動作,2)力覚提示装置を使った仮想物体提示によるリアクティブ動作,3)力覚提示装置を使った力変化によるリアクティブ動作,の3つに関して評価実験を行なった.そして主観および客観評価を行なうことで,提案システムによる自然な動作生成の有効性を示した. また,Reactive Motion Captureで獲得した動作データを基に,等身大環境で動作可能なバーチャルヒューマンの構築も行なった.動作データからデータベースを構築し,そこから対峙する人間の動作に応じて適切な動作を選択および再現することを実現した.
|