本研究では、既に開発済みのあらかじめ撮影された全周囲の映像を仮想空間中に再構築するシステムに、さらに臨場感を持たせることを目的とした。 昨年度までのシステムでは、ある一点からの頭部の回転による見回し動作については完全にサポートされているのみであった。これに対し、さらに並進運動に伴う動眼視差に対応することが、より高い臨場感の生成に対して重要であることが指摘された。 そこで、本年度では、空間位置センサをもったカメラによって撮影された様々な視点からの位置情報付きの画像データを利用することにより、観測者の動きに対応した任意の視点からの画像を合成することを試みた。3次元空間内のすべての観測者の視点移動に伴なった画像データすべてを用意するには、膨大な量の画像を計画的に撮影する必要があり現実的ではないため、撮影された位置情報付き画像データを一旦データベースに蓄積し、観測者の視点移動に応じて、蓄積された画像を編集した。複数の実画像のデータを合成には、画像処理の分野で活発に利用されているブレンディング、モ-フィング等を利用することにより、少ない蓄積画像から実画像を利用してウォークスルーが可能な仮想空間を生成することが可能となった。これにより、観測者の並進運動に伴った仮想空間の構築をすることができるようになり、臨場感を向上させることに成功した。
|