研究概要 |
従来の仮想現実技術では,対象となる空間は仮想的なもので,現実空間との協調という視点はあまり重視されていなかった.しかしながら,テレビ会議等を考えると,ある部分は現実空間を利用し,ある部分は仮想空間を利用する,といった仮想空間と現実空間との協調が必要である. 仮想空間の中に,現実空間を撮影した画像を導入する場合,はじめにそれらの幾何学的な対応を取る必要がある.その後,撮影した画像から必要な領域を抽出する. 本研究では,幾何学的な対応問題は比較的容易に解決されると考えたが,実際には光学的歪み等,従来あまり詳細な検討が行なわれなかったカメラモデルが重要であることがわかった.そこで,ここではズ-ムレンズの光学歪みに関して補正法を提案し,これを用いて現実空間の画像を仮想空間へ融合する方法の基礎とした. 次に,仮想空間における視点情報から,現実空間のカメラパラメータに変換する手法について検討を行った.ここでは,仮想空間中に設定した仮想的な「窓」に現実空間を撮影した画像をテクスチャマッピングリアルタイムに表示する状況を考え,視点移動に対してカメラの光軸の方向,画角等をどのように計算するかを検討し,実際にプロトタイプシステムを作成した. 本研究により,現実空間を撮影した画像とコンピュータグラフィックスにより生成した仮想空間を融合する際に考慮すべきカメラパラメータの設定及び各種の歪みの補正法が明らかになった.
|