2005 Fiscal Year Annual Research Report
視覚による実世界対応に基づく感覚間と行動の相互支援によるヒューマンインタフェース
Project/Area Number |
14350127
|
Research Institution | Saitama University |
Principal Investigator |
久野 義徳 埼玉大学, 工学部, 教授 (10252595)
|
Co-Investigator(Kenkyū-buntansha) |
中村 明生 東京電機大学, 工学部, 助教授 (00334152)
|
Keywords | コンピュータビジョン / ヒューマンインタフェース / マルチモーダルインタフェース / 音声理解 / 視線 / サービスロボット / アイコンタクト / 非言語的行動 |
Research Abstract |
身体の不自由な人が頼んだものを取ってきてくれるような福祉用ロボットなどを想定し,その実現のために必要なヒューマンインタフェースについて研究を行った.このようなロボットでは音声による対話が自然で使いやすいと考えられるが,音声認識だけでは人間の意図を理解し,指示を実行することはできない.人間は視覚により相手の行動や周囲状況について情報を得ており,相手もその情報を共有していると考えれば,発話でそのことを省略したりする.また,アイコンタクトやジェスチャなどの非言語的行動を効果的に利用して意図を伝える.このように意図の理解には視覚情報が重要な役割を果たす.昨年度までに,人間の行動に関わる物体を視覚で認識することにより,人間が自然に発する簡略化された発話を理解できることを示してきた.しかし,これまでは手法の開発が主であり,実際の人間の行動を調査していなかった.そこで,今年度は介護場面を模擬した環境,および実際の福祉事業所で人間同士の依頼の場面を観察し,依頼発話を理解するために必要な情報を調査した.その結果,これまで提案してきた人間の行動認識が発話理解に有効であることが確認できた.また,非言語的行動としては,これまでのアイコンタクトに加えて発話時の頭部動作に着目した.今年度は人間の頭部動作の理解ではなく,わかりやすい説明をロボットがするための,ロボットの頭部動作を検討した.人にものを説明するときの頭部動作を観察し,それをもとにロボットの頭部を動かすようにした.実験により,このような頭部動作を行うロボットに説明してもらう方が人間に好まれることが確認できた.
|
Research Products
(12 results)