研究概要 |
本研究では,10年来開発してきた,世界的に類を見ない,人間と同様な顔を有し表情を表出する顔表情ロボットを用い,音声と表情などの非言語による人間と機械との感性豊かなコミュニケーションを実現すると共に,実際に役に立つ統合ロボットシステムとして受付システムSAYAを完成させ,その感性伝達能力を定量的に評価することを目的としている.人間の顔表情は,他の生物に類を見ない最も進化したコミュニケーションツールであり,人間同士のコミュニケーションにおいて最も重要な要素であるため人間と機械の調和の促進には欠かせない.しかし,人間のようなリアルな顔表情を用いたロボットのコミュニケーション能力を追求する研究は世界的に皆無で,本研究は独創的・先導的で有意義な研究である. 本研究ではまず,以前からの問題点であった表情を表出するために皮膚の裏側から引っ張る点(制御点)の変位量不足を解決するため,アクチュエータを骨格表面上に配置することにし,ワイヤのたるみなどによる変位量のロスを低減した.次に,顔の表情をよりリアルなものにするため,実際の表情筋の役割を分析し,従来の制御点を増やすと共に,制御点の引っ張る方向を一部変更した.さらに,新たなまぶた機構,首機構を開発し,より人間に近い動きを実現した.くわえて,会話時のうなづきを人間を参考に実装すると共に,人間を視線で追う人物追跡機能も実現した. 以上のように,本年度に於いて要素技術の改良を終えたので,次年度にコミュニケーション能力の感性評価を定量的に行う予定である.
|