本年度は、昨年度の研究により確立した視覚空間と音響空間との弱校正技術を複合現実感に応用することにより、視覚と音響との幾何学的な整合性が取れた、より臨場感のある複合現実感の実現方法を開発した。 複合現実感においては、視覚による提示だけでなく聴覚や触覚なども含めたマルチモーダルな情報提示を行うことにより、より臨場感を増すことができる。しかしマルチモーダルに情報提示する場合には、それぞれの感覚の整合性をうまく取らなければ、かえって臨場感を失うことになる。本研究では、複合現実感におけるユーザの視覚空間と聴覚空間との関係が、基底音を用いることにより校正可能であることを明らかにした。特にこの提案法では、複合現実感に使用するカメラや音響装置などの装置類を事前に個別に校正しておく必要がないため、カメラの校正や音響装置の校正といった手聞のかかる難しい作業が必要ないという大きなメリットがある。またさらに、複合現実感において多数のカメラを使用する場合に、これらのカメラ間の関係を、カメラの相互投影像を用いることにより、より正確に校正する方法を提案した。カメラが大量に存在する場合に、これらのカメラ間の関係を正確に求めることは非常に難しい問題であったが、本研究では、カメラのお互いの投影像を用いることにより、この校正が、より少ない対応点からより安定に行えることを明らかにした。 実際にヘッドマウントディスプレイと音響装置を用いて、視覚と音響の整合性の取れた複合現実感システムを構築し、被験者を使って臨場感テストを行った結果、提案法により、より臨場感が増すことが確認できた。 来年度は、視覚と音響による複合複合現実感を複数カメラと複数音場に拡張することにより、マルチユーザ間での視覚空間と音響空間の場の共有の実現を目指す。
|