本年度行った研究は主に2つある.まず1つ目は,これまで研究してきた単一の平面からカメラ位置を推定する手法を拡張し,画像上から複数の平面領域を取り出して全体最適化問題を解き,カメラの位置姿勢と各平面の位置を導出する方法を考案した.このシステムでは,画像中の平面領域を取り出し,各平面に独立したパラメータとして法線ベクトルを置いた.ここで,カメラの回転・並進運動と各平面の法線ベクトルがわかっていれば,対象領域がどのように見えるか計算できるため,各平面に共通したパラメータとして回転・並進運動を置き,対象領域の濃淡が変わらないという条件より最適化する評価関数を設計した.この評価関数の解くことで,回転・並進と法線のパラメータが得られるが,解析的に求めるには高次の偏微分の積を複数しなければならず,煩雑さや計算量の面で困難な問題である.カメラの位置推定や地形のマップ生成などを取り扱う際には,リアルタイム性が重要視されることがよくあるため,簡潔な形で計算できることが望ましい.現在では,このような問題を高速かつ数値的に解くためのライブラリが充実してきたため,今後の課題として数値的に解く手法にも取り組みたい.2つ目は,被災地ロボットや動物にカメラを搭載し,実環境の中でも特に幾何学量の推定が困難な状況で,カメラの自己位置推定と環境の3次元マップの生成を実現する方法を考えた.動物に搭載されたカメラは激しく動く場合が多く,ローリングシャッター方式のカメラを使うと画像が歪んでしまうことは良く知られていた.この歪みによって画像間のマッチングもズレが生じ,位置の推定精度が悪くなるため,歪みのパラメータを考慮にいれた補正用の評価関数を作り,歪んだ画像間のマッチングから推定されたカメラ位置・姿勢と3次元の位置を初期値として,数値的に解く方法を確立した.
|