2009 Fiscal Year Annual Research Report
ジェスチャーと音声による人間ロボット間の自然なインタラクションに関する研究
Project/Area Number |
09F09263
|
Research Institution | National Institute of Informatics |
Principal Investigator |
稲邑 哲也 National Institute of Informatics, 情報学プリンシプル研究系, 准教授
|
Co-Investigator(Kenkyū-buntansha) |
MD. Hasanuzzaman 国立情報学研究所, 情報学プリンシプル研究系, 外国人特別研究員
|
Keywords | Human-Robot Interaction / ジェスチャ認識 / 知識工学 / 学習 / 確率的情報処理 |
Research Abstract |
ジェスチャーおよび音声によるロボットとの自然なインタラクションシステムの有効性を検証するために,移動ロボットにおける遠隔操作タスクに着目し,単眼カメラを搭載した移動ロボットを構築した.さらに360度の周囲をスクリーンで囲ったロボットの遠隔操作のためのコックピットスペースを構築した.周囲スクリーンには6台のプロジェクタで映像を投影可能で,遠隔地の様子を直感的に理解できるような没入型のディスプレイを構築した.また,このスペース内でユーザの動作を認識可能とするモーションキャプチャシステムを導入し,ジェスチャーおよびリアルな視覚フィードバックが可能な実験システムを構築した.さらにユーザの視線を認識可能な計測デバイスを導入し,リアルタイムにユーザの注目している点を実験空間の絶対座標系で計測可能とした.一方で,ロボットの自律行動のうち,要素行動として,対象物を追跡・移動するためのビジョンシステムを構築した.単眼カメラでもロバストに対象物を追跡可能とするために,対象のユーザの身体の輪郭線抽出処理,顔画像抽出処理,および,画像データベースとの照合アルゴリズムを開発し,未知の環境下における実験でも約8割の正解率で対象を認識し追従可能であることを確認した.なお,実世界での遠隔操作時における新しい経験を知識表現に変換するためにベイジアンネットワークを導入することとし,新しい知識表現の確率的な記録方法について検討を行った.
|