研究概要 |
生活支援ロボットと人間がやりとりをするためには,環境の構造と重要な物体の配置を持った地図が有用である。そのような地図の自動生成において,すべての物体を認識、記述する必要は一般にはなく,どのような物体をどのような詳細度で記述するかは利用目的によって異なる。そこで,視覚移動ロボットが目的に応じて環境の構造や重要物体の配置を自律的に獲得する環境情報要約について以下の研究を行った。 複数画像特徴を利用した物体認識:HSV色空間の分割に基づく色ヒストグラム及び色共起ヒストグラムの照合,およびエッジ画像の距離変換に基づくエッジパターン照合に基づく物体認識を行った。物体までの姿勢や距離の変化に応じてモデル画像を変化させることにより,柔軟な認識を実現した。 認識の信頼度モデルの作成と利用:上記の各種特徴量を用いたモデル画像と入力画像との照合度の,状況ごとのばらつきや,物体までの距離に基づく変化などをモデル化し,新たな観測を行ったときの予想される照合度を予測して,観測行動をプランニングする方法を開発した。固定した手順(例えば,粗い画像から細かい画像へ順番に処理する,あるいは色ヒストグラムからエッジパターンの順番に処理する)による物体認識に比べて,認識処理の効率が向上することを実験的に示した。 環境情報要約システムの試作:移動ロボットに広視野カメラ,高解像度カメラ,レーザ距離センサを装備した環境情報要約システムを試作した。環境の幾何学的構造を得るために従来のSLAMを改良し,大きなループを含む広い屋内環境で十分な精度で地図が生成できることを確認した。さらに視覚プランニングを行うことにより,重要物体を環境中から効率的に探索しながら地図上へ記述してゆく動作を実現した。
|