研究概要 |
本研究は,人が他者の顔や声から人物を同定する際の,視聴覚相互に利用される情報を心理学的に明らかにすることを目的し,他者の人物同定成績を向上させるあるいは逆に低下させる要因を探る.顔の認識は,静止した一枚の写真や似顔絵からも人物同定が可能である.しかしながら,顔と声の組み合わせにより認識を行う場合は,顔の運動情報(特に表情)が重要であることが分かっている.そこで本研究課題では,「顔から得られる視覚的情報と,声から得られる聴覚的個人特性との統合過程」に着目し,モーションキャプチャによる運動情報解析と,コンピュータグラフィックスを使用した刺激作成を手法とした心理実験を行う.特に顔と声の知覚的情報にマルチモーダルに含まれる「人物同定」「表情認識」を可能にする情報を詳細に調べる.この情報特定を行うことで,顔学習によって声認識を行うようなシステム設計に必要な,精度向上に一役を担うことが可能である.初年度となる平成21年度は以下の研究を行った. 【1】発話時の顔運動情報計測 発話内容変化による顔運動情報の違いを調べるため,モーションキャプチャによる顔運動計測実験を行った.キャプチャする運動情報は,大学生5名から取得した.発話内容は,22年度に行う心理実験統制のため,限定された文章を複数の表情で発話する内容とした.装置は,工学院大学内にすでに設置してあるモーションキャプチャシステム上で動作させるリグシステムを購入した上で,設定変更により顔の運動計測システムへと移行して使用した. 【2】モーションキャプチャデータの加工と解析 上記で計測されたマーカの座標データについて,計測点の数と配置を系統的に操作するなど,次年度以降の実験を円滑に行うための刺激準備,プログラム作成,予備実験等を行った.
|