ジェスチャーと音声による人間ロボット間の自然なインタラクションに関する研究
Project/Area Number |
09F09263
|
Research Category |
Grant-in-Aid for JSPS Fellows
|
Allocation Type | Single-year Grants |
Section | 外国 |
Research Field |
Perception information processing/Intelligent robotics
|
Research Institution | National Institute of Informatics |
Principal Investigator |
稲邑 哲也 国立情報学研究所, 情報学プリンシプル研究系, 准教授
|
Co-Investigator(Kenkyū-buntansha) |
MD. Hasanuzzaman 国立情報学研究所, 情報学プリンシプル研究系, 外国人特別研究員
|
Project Period (FY) |
2009 – 2011
|
Project Status |
Completed (Fiscal Year 2011)
|
Budget Amount *help |
¥2,100,000 (Direct Cost: ¥2,100,000)
Fiscal Year 2011: ¥600,000 (Direct Cost: ¥600,000)
Fiscal Year 2010: ¥900,000 (Direct Cost: ¥900,000)
Fiscal Year 2009: ¥600,000 (Direct Cost: ¥600,000)
|
Keywords | Human-Robot Interaction / 画像認識 / ジェスチャー認識 / 主成分分析 / 移動ロボット / ジェスチャ認識 / 知識工学 / 学習 / 確率的情報処理 |
Research Abstract |
最終年度である平成23年度では,従来までに開発してきたロボットの対話行動モジュールを統合し,全体としてのシステムの有用性を検証した.具体的には,(1)新しい画像情報に遭遇した際のデータベースへの登録機能,(2)物体の画像トラッキングに基づく動作指示の理解,(有)音声対話によるロボットからの確認行動,の3点の統合を行った.(1)の機能では,人間の顔画像,および日常生活の中にある日用品の双方に適用可能な手法を開発した,(2)では,主に移動に移動のための経路による指示を行うための指先の軌道の認識に注力し,ユーザが不確実性を伴いながら空中で指で描画した3次元的な移動軌跡を,2次元平面上の軌跡へと変換する手法を開発した,既に開発していた(3)の機能と,これらの(1)(2)を統合し,移動ロボットと人間との間で,自然なインタラクションが可能であることを確認した.
|
Report
(3 results)
Research Products
(5 results)