研究概要 |
本研究は,成人を対象に,顔,表情,視線,ジェスチャーなどの多様な社会信号から他者の心的状態を推測し,それを適切な応答・表出反応に結びつける社会情報処理の心理基盤・神経基盤を実証的に明らかにすることを目的としている.平成18年度は,動的表情の知覚によって生じる知覚者の無意図的表情表出の特性の分析を試みた.中性表情から喜び,中性表情から怒りに変化する動画表情刺激を用い,受動的注視中の被験者の自発的な表出映像をプロンプタにより撮影し,FACSのAU4(眉を寄せて下げる),およびAU12(口角を上げる)の2箇所きに着目して表出表情の分析を行なったところ,自発的に表出される表情は,知覚している表情の表わす情動と類似した情動価を示すことが示唆された.これらの自発的表情表出は,モーフィングにより作成した人工的な表情動画映像と,自然な表情動画映像のいずれにおいても同程度に生起した.第2の研究課題として,視線が感情認知におよぼす影響に関して,バロン-コーエン(2000)が作成した「心を伝える目(Mind in the Eyes)」テストのアジア版を作成し,オリジナル版と併用して,日本人-米国人被験者での比較を行なった.とくに感情判断の特徴に日米差はあるか,内集団バイアスがみられるかどうかを中心に検討したところ,日本人被験者,米国人被験者のいずれにも明確な内集団バイアスがみられ,内集団の視線画像からの感情認知の正答率が外集団の正答率よりも高いことが示された.
|