研究課題/領域番号 |
14550352
|
研究種目 |
基盤研究(C)
|
配分区分 | 補助金 |
応募区分 | 一般 |
研究分野 |
情報通信工学
|
研究機関 | 電気通信大学 |
研究代表者 |
金子 正秀 電気通信大学, 大学院・電気通信学研究科, 教授 (90262039)
|
研究分担者 |
目黒 光彦 電気通信大学, 大学院・電気通信学研究科, 助手 (20323884)
|
研究期間 (年度) |
2002 – 2004
|
研究課題ステータス |
完了 (2004年度)
|
配分額 *注記 |
3,500千円 (直接経費: 3,500千円)
2004年度: 800千円 (直接経費: 800千円)
2003年度: 800千円 (直接経費: 800千円)
2002年度: 1,900千円 (直接経費: 1,900千円)
|
キーワード | 情報環境場 / アクティブインタラクション / 感性的反応 / 移動型ロボット / 音源位置推定 / ヒューマンインタフェース / 視聴覚情報の統合 / 対話型エージェント / 時空間的配置 / 注意の共有 / 視聴覚機能 |
研究概要 |
アクティブインタラクションの考え方に基づく情報環境場の構築を行うために以下の研究を行い、ユーザとロボットとの新たなインタラクション形態の可能性を明らかにすると共に、その有用性を示した。 対象の時空間的配置に係る曖昧さを含んだ言葉に基づくアクティブインタラクションについて、「もっと右、この前の」等の言葉に対する解釈方法を考案し、シミュレーション及び実空間内を対象とした実験により、有用性を確認した。また、ユーザ、ロボット、環境内の対象物の3者の相対的な位置関係を反映させたインタラクション手法を示した。 次に、視聴覚情報の統合に基づくアクティブインタラクションについて、画像と音声情報を併用した高精度音源位置センシング、会話シーンにおけるロボットと複数ユーザとの共同注意の形成、視聴覚情報の確率的統合による複数ユーザの交替的会話からの話者検出、曖昧さを含んだ空間指示に対するマルチモーダルによる解釈とロボットの動作制御への応用、画像中の動きと色特徴及び音源位置推定結果を用いたロボットによる移動人物の追跡の各々に関して研究を行った。これらを通じて、視聴覚情報の統合技術の構築を行うと共に、ロボット実機を用いた実験により、その有用性を確認した。 アクティブインタラクションのためのロボットの感性的反応について、ユーザの顔アクションの認識、認識結果に対するロボットの動作、ロボットの動作を見たユーザの反応、という一連の動作の実現を通して、ユーザ、ロボット間での双方向でのコミュニケーションの重要性を示した。 この他、情報環境場においてユーザが親しみ易いインタフェースを提供する有力な手段の一つとして、似顔絵ベースのインタラクションエージェントについて研究を行った。顔写真から似顔絵を生成するだけでなく、顔印象に関わる言葉と似顔絵との対応付け、顔印象の定量的取扱い等を実現した。
|