アクティブインタラクションの考え方に基づく情報環境場の機能の高度化を図るため、以下の研究を行った。 1 アクティブインタラクションのためのロボットの感性的反応 アクティブインタラクションを実現するためには、ロボットがユーザからの言葉やジェスチャによる指示内容を理解するだけでなく、ユーザの感性的状態や動作を認識し、これに共感したり適切な反応を自律的に行うことが望ましい。そこで、入力画像からユーザの顔アクションや挨拶の仕方を認識し、その結果に基づいてロボットに感性的な反応を行わせる方法を開発した。これにより、ユーザとロボットとの間での相互作用的なコミュニケーションの可能性を明らかにした。 2ユーザとロボットとのアクティブインタラクションの高度化 ユーザとロボットとの間でのインタラクションを、人間を相手にしてのインタラクションに近付けるための検討を行った。まず、ユーザ、ロボット、環境内の対象物の3者の相互位置関係を把握し、ユーザに対する対象物の位置を指示する手法について、距離情報の併用により、左右だけでなく前後関係についても扱えるようにした。また、ユーザの姿勢の検出精度を向上させた。次に音源の3次元位置の推定及び人物の移動追跡に関し、視覚情報に基づく環境内への注意分布の推定と聴覚情報に基づく音声/非音声の識別及び音源位置推定を組み合わせ、インタラクションの相手を安定して追跡する方法を開発した。これにより、視聴覚のいずれかの情報だけによる追跡に比べ、追跡精度の向上、誤追跡からの自動復帰を可能とした。 3 似顔絵ベースのインタラクションエージェント ユーザに親しみ易いインタラクションエージェントを作成するために、固有空間法に基づく対話型似顔絵生成ツールの整備を行った。また、本ツールを活用して、性別・年齢・表情の違いを始めとした様々な顔印象語に対応した顔表現を可能にすると共に、入力顔に対する顔印象の定量的分析手法を開発した。
|