研究概要 |
本研究の目的は,聴取者の運動に伴う体性感覚情報及び視覚情報が音刺激と同時に存在する場合の音空間知覚を明らかにすることを目的としている。今年度は特に,体性感覚協応型のマルチモーダル音空間合成システムによって作り出される仮想音源を用い,聴取者の頭部を固定した場合と移動を許した場合の音像定位能力及び頭部運動の様子を調べ,実音源の場合と比較した。広帯域雑音,高域通過雑音,低域通過雑音の3種類の音信号を用いた聴取実験の結果,実音源の場合には,頭部を固定したとき低域通過雑音の前後定位誤りが頻発したが,頭部運動を許すことにより前後定位誤りが大きく減少することが明らかとなった。これに対し仮想音源の場合には,頭部運動を許さないと3種類のいずれについても前後誤りが頻発し,頭部運動を許すと,ある程度減少することが示された。また,頭部運動を許した場合の頭部運動量が,実音源の場合より仮想音源のときにかなり少なくなるとの興味深い知見を得た。これは言い換えれば,仮想音源の場合に,実音源の場合よりも頭部運動の効果が大きいということを意味している。 現在,音空間合成システムを音源と聴取者の双方が移動した場合に対応できるように改良を行っている。これが完成し次第,仮想移動音源を用いて,移動音源の定位を行っている間の定位軌跡の測定を行う。さらに,仮想音像による体性感覚誘導,いわゆるベクションに関する実験系の構築も進めており,これについても完成し次第実験を開始する。
|