研究概要 |
実写画像と仮想物体を合成して高品質な画像を作成するには,画像の入力側(実写画像を撮影するカメラ)と出力側(合成画像を見る人間の眼)のモデル化とキャリブレーションに基づいて画像の合成を行う必要がある.本研究ではカメラと眼のモデル化とそれらのキャリブレーションに基づく画像生成法に関して,以下の検討を行っている。 (1)実カメラのズーム,フォーカス,アイリスの特性を忠実にモデル化した統合カメラモデルの設計とキャリブレーション手法の確立 (2)統合カメラモデルを用いた高精度ぼけ画像生成アルゴリズムの開発と高速化 (3)眼のモデル化とキャリブレーション手法の開発 (4)カメラと眼のキャリブレーションに基づく高精度立体視画像合成法の開発 本年度は,(1)(3)に関して以下の成果を得た. ●昨年度開発したズーム・フォーカス・アイリス統合カメラモデルを改良し,そのキャリブレーション結果の精度を評価するためにぼけ情報からの距離計測について検討した.従来から,フォーカスとアイリス変化によるぼけからの距離計測は行われていたが,本カメラモデルを用いることによってズーム変化によるぼけからの距離計測が可能であることを理論的,実験的に示した. ●光学シースルーにおいて,実世界と仮想世界が幾何学的に整合した高精度な立体視画像を生成するための眼のモデル化とキャリブレーション手法について検討した.ヘッドマウントディスプレイを装着した場合に生じる幾何学的不整合を,実・仮想空間座標のパラメータとして表現し,その解消方法を示した.特に,個人ごとに固有のパラメータである視点間距離の計測とその値に基づくアイキャリブレーション手順を構成し,その評価を行った.
|