Research Abstract |
本年度は,移動ロボットの視覚システム実現のため,物体の見え方によるロボットの位置推定について研究を行った。 入力画像が与えられると,エッジ抽出,細線化,Hough変換,ρ-θ空間でのクラスタリングを行い,線分の要素となる線要素を求める.線分解釈では,線分モデルを用いて,線分の特徴から5つのクラスに分類し,それぞれの関係を記号表現(1 form)する.物体を構成する線分が床面上に存在すると解釈されると,線分情報より逆透視変換を行い,視点と物体の相対的な位置関係を求める.さらに,環境マップ中にあらかじめ用意している物体の絶対座標と,視点と物体の相対的座標より,視点の絶対座標を求め,環境マップに投票する.複数の物体に対して上記の処理を繰り返し行い,最も投票のあった地点をロボットの位置とする. 入力画像は,512x512画素のモノクロ画像である.前処理部はC言語で,また,線解釈部は,perlを用いて作成した.実験では,視点の位置推定において良好の結果を得ることができた。 現在,カメラ角度は固定で逆透視変換を行なっているが,実際は,廊下の凹凸などによって角度は,必ずしも安定しない.そこで,廊下の特徴を利用してカメラの多少の角度変化に対応可能なよう改良を加えて行きたい.さらに,DSPボードによる前処理の高速化,解釈部の制約に基づいた前処理部の検討,ならびに移動を考慮した位置推定方式について,今後研究を進めていきたい.
|