研究概要 |
研究計画に従って研究を遂行し,以下の知見を得た. [撮影装置の構築] (1)小型のCCDカメラ,移動ステージ,パーソナルコンピュータ,画像取り込みボードを用いて任意視点画像取得装置を構築した. (2)移動ステージは水平方向と回転方向の2自由度を有するX-θステージを用い,シリアルポートを通じてホストコンピュータから移動量の制御を可能とした.撮影される画像の解像度はNTSC相当であり,位置合わせ精度は水平方向10μm,回転方向1/500度が得られた. (3)一辺15cmの基準立方体を用い,カメラの内部パラメータ5つ,外部パラメータ6つの計11個のパラメータを推定するアルゴリズムを構築した. (4)これを応用し,3次元位置と向きを測定する3次元センサとCCDカメラを組み合わせることで,精密なステージを用いることなく,カメラパラメータ既知の任意視点画像を撮影できる装置を開発した. [標本化と復元の理論構築] (1)3次元映像情報は空間中を伝播する光線の集まりで表現できることに着目し,3次元空間情報の標本化と復元の問題を光線空間における標本化と復元の問題として定式化した. (2)光線空間データの取得装置として薄厚単レンズを有したCCDカメラを仮定し,透視変換と点像広がり関数とを用いて光線空間データの取得過程をモデル化した. (3)上記モデルの下で,光線空間データの帯域について検討を行った.その結果,空間軸方向の帯域はCCDの画素ピッチと焦点距離により制限され,視差軸方向の帯域はレンズの口径と焦点距離により制限されることが分かった. (4)構築した取得装置を用い,光軸平行で直線配列の多眼カメラで撮影した光線空間データについて空間軸と視差軸方向の帯域を調べた結果,上記検討が正しいことを実データで確認できた.
|