Research Abstract |
人間と対話をしなら行動を逐次的に生成するシステムを実現するために,人間の音声指示に用いられる語彙をロボットシステムで定義される概念とリンクさせ,またロボットの作業計画に用いられるシンボルと物理世界の概念と対応させる必要がある.昨年度までに,既知環境や物体を定義するための物体辞書のほかに,環境とのインタラクションの中で行う視覚・聴覚・触覚によるセンシング・プロセスを知覚行為,身体を用いて環境とインタラクションをするプロセスを身体行為,発話を伴うプロセスをスピーチ行為,また物体や行為の情報をロボットの記憶(データベース)から取得するプロセスを問い合わせ行為として分類した記憶メカニズムにもとづいた行動決定システムを構築した.本年度はこの記憶メカニズムを使用して,作業目的が与えられた後,ロボットの状態および音源方向同定を含めたセンシング行為による環境認識結果に応じて,作業データベースに記述された情報に基づいた作業計画を行い,行動実行時には,必要に応じて人間に確認を取るスピーチ行為の発行を含めた人間との対話による作業遂行するシステムを実現した.ヒューマノイドロボットHRP-2を用いて,提案システムの有効性を検証するための実験を行った.提案したフレームワークを用いて,視覚で認識し,オンラインで全身行動を生成することにより,音声指示された物体を運ぶ作業や,音声指示による陳列作業などを実現してきた.ロボットのオンライン身体情報およびセンシング行為による認識結果に基づいて,「もっと右」や「もうちょっと左」といったインタラクティブな動作指示や,音源方向情報にもとづいて,予期せぬ方向から呼びかけられた場合にも,そちらの方に首を巡らしてスピーチ行為で応答するなど,人間との対話による逐次的な行動生成を実現した.
|