研究概要 |
14年度研究実施計画に従い,1)対話の共感性,2)感性情報,3)音源定位測定法とデータベースの3項目に関して研究を進めた. 1)対話の共感性:i)音声の発話速度やピッチパターンを変化させた場合における対話の維持,共感性について検討した.人間と仮想クリーチャの非分節音的音声による相互作用では,クリーチャの発話が人間のそれより1.0〜1.3倍速い方が0.7倍程度に遅くなるものより親しみがもたれることを示した.また,このとき人間の発話速度は,クリーチャの発話速度に対して補償的な方向に調整されることも示した.ピッチパターンの変化については,通常の発話に比べてピッチレンジが高い方が,人はその音声に対して強い意図や要求を認知することが明らかとなった.ii)対話相手としてのエージェントが擬人的である場合の身体的なインタラクションについて検討し,擬似的なエージェントとの対話において,人間はエージェントの仮想的な身体に対して働きかける(話す,聞く,見せる)行動をとることを示した. 2)感性情報:i)各種感情の度合が制御された音声を合成するために,高品質音声分析合成システムSTRAIGHTに基づく音声モーフィング法を実現した.このモーフィング音声の自然性は高く,また充分に心理連続体を形成し得るものであることが明らかとなった.ii)このモーフィングを使用して音声の感情認知を検討し,人間の感情認知は非カテゴリー的であることを明らかとした. 3)音源定位:音源定位情報をすべて含む頭部伝達関数のインパルス応答を実頭の全方位193点,水平面24点について求め,HRTFデータベースとしてウェブサイトで公開した.ii)音声や音楽などの長時間平均スペクトルに対応するピンク雑音を用いて,音源定位測定に必要な刺激音呈示時間の検討を行い0.2〜1秒という値を得た.
|