本年度は、昨年度までの研究により確立した視覚音響空間の弱校正法と、カメラ同士の相互投影を用いたカメラ校正法とを組み合わせることにより、複数カメラと複数音場における視覚空間と音響空間の融合法を開発し、複数のユーザによる視覚音響空間の共有を実現した。 複数のユーザが一つの視覚音響空間を共有するためには、複数のユーザがそれぞれ持っているカメラ画像の空間(視覚空間)と音響装置の空間(音響空間)を統合するよう空間の幾何学的な校正を行う必要がある。一般に複数ユーザ間の視覚空間の校正は、空間中のマーカーや自然特徴点の対応をもとに行うが、正確に校正することは容易ではないことが知られている。これに対して昨年度の研究において、複数のカメラ同士を相互に投影し合うことにより、この幾何学的な校正が少ない対応点から高精度に行えることを明らかにした。そこで本年度はこの相互投影に基づくカメラ校正法を視覚と音響による複合現実感に応用し、カメラの相互投影を用いて複数の視覚空間と複数の音響空間を弱校正する方法を開発した。特に、HMDに取り付けたカメラを複数ユーザ間で相互に投影し合うことにより、最低3点の特徴点から、時々刻々と変化する複数ユーザのHMDカメラ間の幾何学的な関係をリアルタイムに高精度に計算し、3次元空間中の仮想物体と仮想音源をそれぞれのユーザの視点カメラとヘッドホンに投影して提示することに成功した。 開発した手法を用いて、複数のユーザ同士が仮想的な世界の中でスターウォーズ対戦などを実体験することのできる複合現実感システムを構築した被験者を使って実験を行った結果、複数のユーザ同士で視覚空間と音響空間が共有でき、かつこれらの空間の弱校正が正確に行われていることから、非常に高い臨場感が得られることを確認した。
|