研究概要 |
ビデオシースルー拡張現実感における光源環境推定手法の高精度化を行うために、複数のカメラを利用した拡張現実感システムの開発を行った。本研究では,異なる露光時間で撮影された複数枚の画像からハイダイナミックレンジ(HDR)画像を合成し,HDR画像からの光源環境推定と,仮想物体のHDRレンダリングを行った.さらに,ユーザ視点カメラの特性に応じたトーンマッピングによって実画像と仮想物体のダイナミックレンジを一致させる.ここで,複数枚の画像を合成するHDR画像生成において,推定可能なダイナミックレンジとHDR画像の更新レートはトレードオフの関係にある.そこで,HDR画像の更新レートを向上させるため,ARを行う環境に応じて計測する放射照度の範囲を設定し,ダイナミックレンジ不足と更新レート低下の問題を軽減したHDR画像生成手法の開発を行った.また本年度は、画質の整合性問題に関して、カメラによって実環境のシーンがどれだけ劣化するかを実時間で推定し、仮想物体にその劣化を擬似的に再現する手法の開発を行った。本年度はカメラによる画質の劣化の原因であるレンズの焦点ずれによるぼけの推定を主としておこなう。その際、問題を簡単化するため、1つのマーカ上ではレンズぼけは一定であるという仮定を用いる。さらに、撮影中にカメラと被写体の位置関係が変化することで発生するモーションブラーの内、カメラの回転によって発生するモーションブラーに関して推定・再現手法の開発に着手した。カメラの回転運動に起因するモーションブラーは画面全体で均一に発生する特徴があるため、ぼけモデルの簡単化が可能であり、焦点ずれによるぼけと、モーションブラーによる画質劣化パラメータの同時推定の開発を実施した。
|