本研究では、昆虫などにみられる複眼構造である連立眼光学系に着目した超小型立体内視鏡システムの開発を行った。特に、連立眼光学系より取得した多数の画像群から画像処理により高精度な3次元形状を計測するアルゴリズムの検討を行った。連立眼の1つの眼に対応する単眼像の解像度はかなり低い。そのため、従来の3次元形状抽出に用いられてきた特徴抽出などによる対応点探索問題を本装置に適用することは、画像群の画像点数不足のため、位置精度を向上させることが困難であった。そこで、統計的手法であるベイズ推定法を用いて位置精度を向上させ、高密度な3次元形状の再構築を行った。対象の表面形状モデルと物体の表面特性モデルを仮定し、コンピュータグラフィクス分野で一般に用いられている3角形のメッシュ格子を用いた。このメッシュの頂点の値が、高さ方向(位置)の情報となり、3次元座標情報を表現する。また表面特性モデルには、ランベルトモデルを使用した。これはポリゴンの法線ベクトルと照明ベクトルの内積により面の輝度を計算するシンプルで高速なシェーディング技法である。単眼像の投影による対象物体の3次元位置情報を幾何光学的に2次元マップに投影する。得られたデータは、物理的な要因によりボケが生じるので、各単眼像から得られたデータをもとにこれらのモデルのパラメータをベイズ推定により最適化した。厚さ1.8mm、12 x 14mmの大きさの試作システムを作製し、開発したアルゴリズムの原理確認実験を行った。対象物体5 x 5mmの鶏肉を撮影距離25mmで撮影した。3次元形状を解析した結果、1mmほどの誤差があった。これは実際に鶏肉を配置した際の誤差や光学系の歪による誤差が考えられる。今後は、光学系の歪みを考慮したアルゴリズムの改良を行う。 また、取得した情報をもとに3次元表示する技術としてインテグラルイメージングを用い、試作システムを作製した。
|