研究概要 |
コミュニケーションロボットが感情を表出するための表情表出システムについて研究を行った.具体的には,複数種類のニューラルネットワークを用いてロボットの感情と顔表情とをマッピングし,ロボットの感情モデルを構築した. まず,ロボットの表情表現に自然さを持たせるためには,感情の継続表出を実現する必要がある.一般に感情の継続表出は,作り込みの表情では困難である.そこで,砂時計型ニューラルネットワークを恒等写像学習させることによって,感情と表情特性とをマッピングした.このニューラルネットワークを用いることにより,表情による感情の継続表出および,数段階の感情強度の表現が可能となった.このニューラルネットワークで生成される表情を主観評価したところ,人の主観に見合った表情が生成できることを確認した. つぎに,感情に伴うスムーズな表情の移り変わりを実現するために,数値化された感情値から表情を生成するニューラルネットワークを提案した.これにより,より細密な感情表現が可能となった.実験では,単一感情を表出する表情については,人の主観評価に見合った表情が生成できることを確認した.2つの感情を同時に表出する混合表情については,ニューラルネットワークの汎化性能により数種類の混合表情が生成できることを確認した. さらに,混合表情生成をより自然に行わせるために,混合表情表出のためのニューラルネットワークシステムを提案した.これにより,ロボットの感情により適した表情の生成が可能となった. 以上のシステムを感性ロボットに実装し,感情に伴う顔表情の変化を模擬した表情制御を可能にした.
|