アクティブインタラクションに基づく情報環境場の構築に向け、以下の研究を行った。 1 実空間内におけるアクティブインタラクション 対象の時空間的配置に係る曖昧さを含んだ言葉に基づくアクティブインタラクションに関し、実空間内を対象とした検討を行った。言葉による対話形式での指示を通じて、本棚の本をロボットに取ってもらうケースを設定して、視界画像からの探索領域の自動抽出、空間的配置に基づく探索領域の動的絞込み、ロボットからの自発的行動等の機能を実装し、人間を相手にするのと似た感覚でのインタラクションが可能となることを確認した。更に、ユーザ、ロボット、環境内の対象物の3者の静的な相互位置関係をロボットが把握し、ユーザが空間内のどちらを向いているかに合せて、ユーザに対する対象物の相対的位置を答えることができるようにした。 2 言葉とジェスチャの併用によるアクティブインタラクション 上下左右に対するジェスチャ指示に関してユーザ毎に癖があることに着目し、インタラクションの繰返しを通じてユーザの指示の癖をロボットが学習できる様にした。これにより、個々のユーザの癖に合せた応答を可能にした。また、空間(特に左右)指示について、言葉とジェスチャの指し示す内容が相互に矛盾した場合に、矛盾していることをユーザに指摘できる様にした。 3 複数ユーザとロボットとのインタラクションにおける注意の取扱い 複数(2人)ユーザの交替会話シーンに対して、視聴覚情報(多チャネル音声、カラー画像、距離画像)を統合することにより、話者の特定を精度良く行えるようにした。時間の経過に伴う話者交替の検出の他、耐雑音性能を向上させるために、音声と非音声音の識別処理も行った。特定した話者については、3次元的な顔姿勢の推定結果と距離情報に基づいて顕著性を表すマップを作成し、空間内のどの対象に注意を向けているかを検出できるようにした。
|