本研究では、カメラパラメータを連続的に変化させて撮影した多重カラー画像を対象に、安定で信頼性の高いシーン情報を抽出するための統合アルゴリズムの開発と、抽出された高信頼性情報の利用方法について検討を加えることを目的としている。今年度は主に多重フォーカス画像の統合に関する研究を行い、以下に示すようにエッジ検出と距離計測を安定かつ高精度に行うアルゴリズムを開発した。 1.カメラモデルの構成:連続的なフォーカスの変化によって得られる多重画像を解析するためのカメラモデルを単一凸レンズによって構成し、エッジ付近のボケの変化特性と画素の対応関係を明らかにした。 2.多重画像空間の構成:フォーカスを変化させて撮影した多数枚の画像を、画像平面に垂直なフォーカス軸に沿って並べた多重画像空間を構成し、フォーカス軸方向の解析手順を明らかにした。 3.高精度情報抽出アルゴリズムの開発:情報の蓄積とモデル当てはめに基づく統合アルゴリズムを開発した。 (1)エッジ件検出アルゴリズム:多重画像空間において、フォーカス軸方向にボケ変化分の積算を行った画像(accumulated defocus画像)を構成し、そのゼロクロス点をエッジ点として検出する。 (2)距離計測アルゴリズム:各エッジ点においてフォーカス軸方向のボケ変化を表す画像(spatio-focal画像)を作成し、ボケの変化に沿った2本の直線を最小自乗法を用いて求め、その交点のフォーカス座標から距離を求める。 4.検証:以上のアルゴリズムをテストパターンおよび室内シーンを撮影した画像を用いて定量的に評価した結果、安定で高精度なエッジ検出と距離計測が可能であることを確認した。
|