2019 Fiscal Year Research-status Report
表情模倣の時間的特性の解明―筋電図と画像解析による検討―
Project/Area Number |
19K12744
|
Research Institution | National Institute of Advanced Industrial Science and Technology |
Principal Investigator |
藤村 友美 国立研究開発法人産業技術総合研究所, 情報・人間工学領域, 主任研究員 (90623992)
|
Co-Investigator(Kenkyū-buntansha) |
森 数馬 国立研究開発法人情報通信研究機構, 脳情報通信融合研究センター脳情報工学研究室, 研究員 (70754696)
|
Project Period (FY) |
2019-04-01 – 2022-03-31
|
Keywords | 表情模倣 / 表情筋電図 / 顔画像解析 / 時系列情報 |
Outline of Annual Research Achievements |
表情模倣は他者の表情と一致した顔面反応が生じる現象として知られている。従来の表情筋電図を用いた定性的な解析方法では、この顔面反応が真の「模倣」なのかどうか―すなわち、他者の表情の物理的変化に依存した表情表出であるかが明らかではなかった。そこで本研究では、顔画像解析と表情筋電図法によって表情を定量化し、時系列情報を考慮した解析手法によって表情模倣の時間的特性を明らかにすることを目的とする。表情模倣は、他者と同じ表情を表出することで、他者の感情状態の理解を促進するといわれている。そこで、2019年度は、顔表情データベース(Fujimura & Umemura, 2018)の顔表情刺激とそれらに対する心理評定値を利用し、顔表情刺激の座標点情報から、知覚された感情状態を機械学習で分類・予測した。その結果、表情から知覚される快-不快の程度と覚醒の程度では、それぞれ予測に使用される顔部位が異なることが明らかになった。また全体的に動画のほうが静止画よりも、知覚される快-不快の程度と覚醒の程度の予測精度が高いことが明らかになった。さらに、表情から知覚される感情カテゴリー(怒り、喜びなど)については、動画のほうが予測精度が高い感情と、静止画のほうが予測精度が高い感情がみられた。これらの結果から、顔の特定部位の時系列情報が、他者に知覚される感情状態を予測すること、特に時系列情報が有用になる感情カテゴリーがある可能性が示された。これらの結果をまとめ、国際誌投稿の準備中である。
|
Current Status of Research Progress |
Current Status of Research Progress
2: Research has progressed on the whole more than it was originally planned.
Reason
顔表情の座標情報と知覚された感情状態が予測できる可能性を示し、知覚者の表情模倣との関係性を調べる試金石を得た。
|
Strategy for Future Research Activity |
今後は、ヒトを対象とした実験実施が可能になり次第、顔表情刺激の座標情報から知覚者の表情模倣を予測できるかを検討していく。
|
Causes of Carryover |
研究代表者が事務部門へ出向していたため、実験機器の購入や実験実施をすることができなかったため、物品費、人件費・謝金がほぼ使用されなかった。
|