2009 Fiscal Year Annual Research Report
人とのインタラクションに基づくロボットの状況依存型ジェスチャーの獲得
Project/Area Number |
20700185
|
Research Institution | Tokyo Metropolitan University |
Principal Investigator |
下川原 英理 Tokyo Metropolitan University, システムデザイン研究科, 助教 (00453035)
|
Keywords | ヒューマンロボットインタラクション / 見まね学習 / ジェスチャ |
Research Abstract |
人の意図を認識し相手の注意を引くようなロボット動作を生成するためには,動作の計測とさらにその動作が行われた状況に着目する必要がある.本年度は,昨年度に研究を行ったステレオカメラによる行動計測において,色マーカを使用せずに顔の位置と手の3次元位置を取得するよう改良を行い,より自然な動作認識を可能にした.さらに,人の動作を空間的に認識する部分と環境情報との関連付けについてさらに研究を進め,動作と状況との関連づけの記述について同一動作が持つ意味の多様性や,同一意味を持つ多様な動作表現について記述方法について検討を行った.昨年度は環境情報としてロボットと人との距離に着目したが,物の位置やジェスチャの対象となる物の情報(色や形状,行える操作など)や時間も,察しやすいリアクションの生成とサービスの選択に有効であり,今後それらの情報を取り入れたシステム開発を進める.人が察し易いリアクションを獲得について,昨年度構築した人とロボットの相対距離を環境情報として用いた学習機構を発展させるため,人の動作とインタラクション履歴の収集に向けてデータベースの構築を行った.今後,環境側に配置すべき知識の検討を行うとともに,ロボットと人とのインタラクション履歴を収集し,動作認識部と学習機能を統合した,「認知-動作獲得-人へのサービス」システムを開発する.
|