人間と共生するロボットが自律的かつ安全に行動するためには、移動に必要な周囲の環境情報を取得し、地図と比較照合してロボット自身の3次元位置や姿勢を知ることが不可欠である。しかも、安価なセンサで実行できることが望ましい。そこで本研究では、移動ロボットが、カメラを主たるセンサとして、自律的かつ安全に移動するために必要な3次元地図作成と、自己位置推定システムの開発を行った。 本研究では初期地図として対象市街地の基幹ルートの全方位画像を取得し、Structure from Motionの技法を用いて画像のみから3次元情報を取得する手法を開発した。まず、つくばモビリティロボット特区において、基幹ルートを設定し高精細全方位カメラで動画像を取得した。取得した画像を用いて、シーケンシャル・グローバルによる3次元復元手法2つを開発した。画像枚数の増加に対処するため、近似解法を導入し、高速処理手法を開発した。その結果、精度低下を抑えたまま計算時間を従来手法の30分の1以下削減することができた。また、5kmという大規模な範囲の3次元情報を復元するため、ところどころで取得したGPS情報を利用し、カメラパスや3次元形状を修正する手法を開発した。解がローカルミニマムに陥るのを避けながら、カメラパスの湾曲や復元した3次元環境のスケール変動を解消できる手法を確立した。 さらに、全方位画像を2次元の従来型画像として扱うのではなく、球面画像として立体的な画素配列のグリッドを設定し、その球面上から直接抽出できる特徴点、特徴点記述子を考案した。本提案手法により、従来のように2次元に展開した画像から特徴点を抽出するよりも、視線移動に頑強な手法を開発することができた。
|