研究概要 |
3次元物体は,視点により異なった見え方をする.物体画像の定性的な構造,すなわちアスペクトに着目して観測空間を分割し,物体の見え方をグラフ表現するアスペクトグラフが物体認識などに用いられた.本研究は,アスペクト表現を個々の3次元物体に適用する考えを一般化し,ロボットが行動し観測する広い環境の表現に適用する方法を探求する. 従来のアスペクト表現は,物体の外側からの見え方の表現である.内側からの見え方が,ロボットによる環境の表現に対応する.しかし,環境内では,観測者とそれぞれの対象までの距離が大きく異なる.また,観測者が移動することにより距離の変化も著しく,物体認識のように弱透視変換は仮定できない.そこで,環境のアスペクトは限られた視野のカメラで撮像した一部の視界ではなく,各視点からの全視野情報を用いることを提案し,全方向画像による環境のアスペクト表現を理想的なセンサ特性と簡単な環境構造を仮定して考察した. しかし,実環境では,[1]センサ分解能が有限,[2]特徴検出の不確かさ,[3]アスペクト変化検出の不安定性,[4]環境の複雑性のため,従来のトポロジー的な等価性に基づくアスペクト分類は利用できない.そこで,異なる2点で観測した1対の観測データで,ある閾値以上に対応不能部分があるとアスペクト変化があったとする新しい考えを導入した.それに基づき,ロボットが移動して観測を繰り返す過程で,同じアスペクトを持つ地点を発見し,環境を分割し,環境構造を認知する方式を提案した.モデル環境でシミュレーションを行い,さらにロボットによる実世界実験により,その方式の問題点を検証中である.
|