研究概要 |
本研究では,従来の命令-応答モデルを越えた新たなインタラクション・モデルとして人間と共生する情報システムの実現を目指しており,本年度得られた成果は以下のとおりである. 1.自律的ダイナミックスを持つシステムによるマルチメディア動的イベントの認識:自律的ダイナミックスを持ったシステムが,観測された時系列データと共鳴・同期することによって認識を行うという動的イベント認識モデルを考案し,多視点映像からのジェスチャー認識においてその有効性を示した. 2.指示動作に基づく人間とロボットとの動的なインタラクション:環境に埋め込まれた多数のカメラによって撮影した映像から,人間の詳細な3次元的姿勢や動作を実時間で計測できるシステムを開発し,指差し動作および簡単な音声によって移動ロボットをコントロールし,好きな場所にロボットを移動させるシステムを開発した. 3.実世界環境モデルの自動獲得とユビキタスディスプレイへの利用:環境に分散配置された複数台のプロジェクタを連携して用いることにより,実環境のあらゆる表面に情報を重畳表示するユビキタスディスプレィ機能を実現するための基礎として,レンジセンサとカラーカメラを含む複数センサによる自動キャリブレーション手法を提案し,家具などの配置が動的に変化する室内環境においてその有効性を示した. 4.ユーザ注視領域に応じた選択的情報提示:不特定多数のユーザに対して情報を提示する場合,ユーザが提示される情報のどこに注目しているかに応じて表示コンテンツを動的に変化させることが有効である.本研究では,ステレオカメラを用いた3次元顔姿勢計測装置と壁面ディスプレイを用いたインタラクティブ情報提示システムを開発し,その有効性を示した.
|