Research Abstract |
今年度は,まず昨年度までの顔表情画像の正準相関分析による感情推定法の研究をまとめ,論文発表した。 同時に,昨年度製作したパソコン(PC)制御による実験システムを用い,静止刺激画像の提示による感情導出を行いながら,3種類の顔画像[表情(可視光),瞳孔(近赤外光),温度(遠赤外光)]をPCへ撮り込み,各画像の解析を行った。その結果,刺激画像提示中にその内容と主観評価を口述させる課題を与えるという本研究の実験計画の有効性には,被験者がこの課題を実行するレベルおよび画像に表れる反応の強度のレベルにおいて,被験者による大きな差異が見られた。また各刺激画像に対して上の課題を課すことにより,その必要時間(約30秒)を越えた刺激画像への注意の集中が困難な被験者も少なからず存在することが分った。以上の問題点のために,感情の分類に対する各画像の特徴の変化量において,被験者に共通する明確な傾向は見られず,各画像からの感情識別の正答率についても昨年度の結果からの向上は得られなかった。これらの解析結果の一部については口頭発表を行った。 以上の静止刺激画像に起因する問題点を解決するために,刺激を動画像とその音声(以降,映像と呼ぶ)へ変更した。映像では,刺激の強度や画像の平均明度などの時間的な変動が被験者の感情や撮込み画像に大きく影響するため,その変動をできるだけ一定化する必要がある。これを満たす刺激映像の編集・作成のためには膨大な作業量を要したが,多数の公開映像を収集して,これらから各2分間の刺激映像27本を作成した。これらを10名の被験者に提示しながら実験を行って3種類の顔画像を取り込み,現在その解析作業を進めている。静止画像の刺激に対する被験者の反応に比較して,平均的な映像に対する反応を改善できたが,被験者によるばらつきもなお大きく,画像解析法の改良を同時に進める必要が判明した。
|