2018 Fiscal Year Annual Research Report
Non-verbal Communication based on Mutual Understanding between Human and Robot
Project/Area Number |
16K12495
|
Research Institution | Tokyo Metropolitan University |
Principal Investigator |
久保田 直行 首都大学東京, システムデザイン研究科, 教授 (30298799)
|
Co-Investigator(Kenkyū-buntansha) |
武田 隆宏 第一工業大学, 工学部, 助教 (70748186)
大保 武慶 東京工芸大学, 工学部, 助教 (60771889)
|
Project Period (FY) |
2016-04-01 – 2019-03-31
|
Keywords | ノンバーバルコミュニケーション / ジェスチャ / 協調的理解 / ロボットパートナー |
Outline of Annual Research Achievements |
本研究では、人間とロボットの自然なコミュニケーションを実現するために、指差し行為に含まれる指示的意図と社会的意図の理解、ものまね行為に含まれるアイコン的ジェスチャを理解するためのメカニズムをシステム論的な観点から解明し、人間とロボットの間で行われるジェスチャの協調的理解に必要な方法論を確立・体系化することを目的としている。 ジェスチャ中心コミュニケーションシステムに関する計算論的研究について、人間が利用するスマートデバイス内の個人的なコンテンツやインターネット上の情報をロボットがコミュニケーションに利用するため、研究代表者らが提案してきた情報構造化空間の概念に基づき、データベースの構築化を行った。また、ジェスチャの協調的理解に関するシステム論的研究では、屋内計測システムの構築を行い、三次元測域センサを用いた方法論および二次元画像処理に基づくジェスチャの認識手法の検討を行った。ジェスチャ認識に基づき、ユーザーの「指差し動作」が指し示すオブジェクトを情報構造化空間内のオブジェクト情報との対応付けを行う方法論を提案した。さらに、手先の動作で対象物の形状などの視覚的表象を創り出す方法の提案、行為的表象を推定するため指差し動作の軌道から対象物に対する上腕を含む動作そのものに意味を付加させるシステムを構築した。 ロボットパートナーを用いた実験では、ユーザーがジェスチャ動作により提示した物体の形状を、空間内に取り付けられたセンサ情報に基づき認識を行うことで、ノンバーバルコミュニケーションを実現した。
|
Research Products
(3 results)