Research Abstract |
本年度は,以下の研究を実施した。 ・音声映像非同期が,主観的に知覚される音量に影響を与える現象:聴覚情報である音声と,視覚情報である,発声時の唇の動きが同期していないと,主観的に知覚される音量が低下するという現象は,本研究課題の一連の研究のなかで新たに発見された現象であり,本年度は実験参加者数を増やし,刺激のステップを改善して更なるデータを収集した。 ・非同期知覚と言語,相貌の関係:非同期知覚に及ぼす言語的特徴の効果について,日本語,日本語音素からなる無意味な文,通常の日本語文を逆転したもの,を比較し,非同期知覚および,そこで生じる主観的音量変化との関係を実験的に検討した。加えて,他者の発話場面と,自分自身の発話場面の非同期知覚を比較し,事例は限られるものの,女性に於いてのみ,自分自身の映像を視聴する方が非同期検出閾が低下することが見出された。 ・音声知覚に貢献する顔面部位の同定:マーカーを貼付せずに特徴点の動きを検出できる実験システムを新たに開発し,唇周辺の特徴点の動きを0.0倍,0.4倍,1.0倍,1.5倍の4段階に変え,音声にノイズを重畳して,聞き取りの正確さを評価した。その結果,顔面の動きが聞き取りに貢献する程度には著しい個人差が存在することが明らかになった。
|