本研究は,複数の聴取者が同一の仮想的な音空間を共有するシステムの検討・開発を目標としている.仮想的な音空間を再現する原理は,音源から聴取者の鼓膜までの音の伝搬特性である頭部伝達関数を音源信号に畳み込むことで,実音源が存在するときに聴取者の耳に入射される音と同じ音信号を模擬することで,仮想音源を知覚させることである.複数の聴取者が存在するとき,各聴取者は異なる位置で音を聴取していることになるので,それぞれの音源位置に対応した複数の頭部伝達関数を同時に処理する必要がある.本システムでは,GPUを用いた並列処理によって同時処理を実現している.ただし,各聴取者を基準とした頭部伝達関数を選択することとなるため,聴取者の位置をシステムが把握する必要がある.さらに,聴取者が自由に移動する可能性があるため,実時間で位置を検出し,仮想音源の提示を行うことが望ましい. 以上のような問題意識のもと,24年度では,静止状態で聴取者の位置を検出するインタフェースを実装した.25年度は,さらに,聴取者の移動も考慮して,実時間で位置を取得するインタフェースの検討を行った.聴取実験によって,聴取者の移動や頭部運動に追随できていることは示された.しかしながら,検出に用いているKinectの仕様によって,頭部運動の範囲に制限があったため,別の方法を導入することとした.聴取者の位置の検出には,画像処理を用いている.26年度は,画像処理のアルゴリズムをいくつか検討し,特に物体の回転にも頑健な方法を試してみることとした.現状では処理に時間がかかり,実時間処理が実現できておらず,データ量を減らすなど課題が残されている.一方,頭部の動作は水平方向とは限らないため,全周方向の頭部伝達関数が必要である.そこで,これまでに測定した全周方向の伝達関数をデータセットとして公開した.また,仰角方向も提示可能なように,システムの拡張も行った.
|