対面コミュニケーションにおいて、人間が喜怒哀楽の情動を伝達するうえで、表情や顔色の役割は非常に大きい。 本年度は、乳児の欲求場面に見られるコミュニケーション機能としての笑い・悲しみの情動下での顔色に着目し、食事、睡眠、排尿、排便における生理指標と情動、生理指標と表情・顔色の分析評価に関する研究を開始した。さらに、顔色の分析合成技術の応用として、バーチャルヒューマンやロボットを介しての人間と機械の円滑な身体的コミュニケーションや協調作業を支援する情感表示インタフェースの開発に関する研究を行った。研究の成果として、3次元形状モデルに平均顔色画像をテクスチャマッピングし、笑いの情動下での顔色の分析評価に基づく顔色の動的モデルと表情を合成した平均顔色画像合成アバタシステムのプロトタイプを開発して、視線、瞬き、笑いの表情・顔色、頭部の動きによる情感表示が可能な平均顔色画像合成アバタの効果をキーボード操作の手動制御で確認した。また、人間上肢に装着する空気圧駆動型腕相撲ロボットシステムのプロトタイプを開発し、本システムのリンク機構を用いた定量的な力覚提示下での肩関節の回旋運動と複数筋の活動状態の動的変化を同時計測して、人間上肢の運動特性を解析できる本システムの有効性を示した。次年度は、これらのシステムを用いて、生理指標から情動に応じた表情・顔色が合成・再現できる情感表示の方法を検討する予定である。
|