Research Abstract |
本年度は,移動ロボットの視覚システム実現のため,(1)物体の見え方によるロボットの位置推定,(2)トップダウン制約を用いた物体認識に関する研究を行った. (1)物体の見え方によるロボットの位置推定 入力画像が与えられると,エッド抽出,細線化,Hough変換,p-θ空間でのクラスタリングを行い,線分の要素となる線要素を求める.線分解釈では,線分モデルを用いて,線分の特徴から5つのクラスに分類し,それぞれの関係を記号表現(1 form)する.物体を構成する線分が床面上に存在すると解釈されると,線分情報より逆透視変換を行い,視点と物体の相対的な位置関係を求める.さらに,環境マップ中にあらかじめ用意している物体の絶対座標と,視点と物体の相対的座標より,視点の絶対座標を求め,環境マップに投票する.複数の物体に対して上記の処理を繰り返し行い,最も投票のある地点をロボットの位置とする. 入力画像は,512x512画素のモノクロ画像である.前処理部はC言語で,また,線解釈部は,perlを用いて作成した.実験では,視点の位置推定において良好の結果を得ることができた. (2)トップダウン制約を用いた物体認識 視点の位置が定まるとロボットは移動計画を立てて,廊下を移動する.そのとき次の位置までの移動距離とその方向が分かれば,その地点での視点方向に観測が期待される物体を特定することができる.さらに,物体の特徴も予測することができる.これらの制約を利用して物体認識の効率化を考えた. 現在,実際のロボットにカメラを取り付け,実際に動作させて,本方式の有用性を検証している.カメラ角度は固定で逆透視変換を行なっているが,実際は,廊下の凹凸などによって角度は,必ずしも安定しない.そこで,廊下の特徴を利用してカメラの多少の角度変化にも対応可能なよう改良を加えていきたい.また,DSPボードならびにCGグラフィック機能を用いて,物体認識の高速化の実現について検討していきたい.
|