研究概要 |
ロボットが移動するためには環境全体の詳細な計測は必要としない。一方興味がある対象(作業対象)については,その詳細な形状を計測する必要がある。本研究では,大まかに全体の位置を観測できる大局視覚と興味がある対象のみを詳細に観測できる局所視覚を融合するこで不必要な観測はせず高速処理可能な視覚機能を実現する。さらに大局,局所視覚情報を実時間処理装置上で実現することを目的とする。本年度は,大局視覚,局所視覚各々の処理方法の確立及び両処理内容を実時間で処理するための画像処理システムの構築した。 1.全方位視覚の研究 円錐ミラーを用いた全方位視覚センサより得られた全方位画像より多くの移動物体(人,車など)が混在する環境下(ビル内,交差点,公園など)で,ロボットの自己位置計測,物体との衝突回避およびその位置,運動の推定を行う移動ロボットのための視覚誘導方式について研究した。具体的には,ロボットは移動しながら全方位情報を一度に撮像し,次に時系列画像間での観測点の移動軌跡を計測する。この移動軌跡の形状は物体までの距離により一意に決定される幾何学的性質を持つ。そこでこの性質を利用し位置情報を獲得した。未知環境では,得られた位置情報を基に環境モデル(2次元マップ)を構築した。再びこの環境を移動する時は,モデルとの照合により簡便にかつより正確に位置を推定した。実環境で実験を行った結果,推定された物体の位置,及びロボットの自己位置精度は,4m四方の環境で6,7cmであった。ロボットを誘導する上では十分な精度と言える。 さらに移動軌跡の形状から未知物体との衝突危険性の評価,衝突回避を行なった。その結果,静止障害物を回避し目標ゴールまで到達する実験を行い,最終的に5cmの精度でゴール位置に到達できた。また移動物体を含む環境では,物体及びロボットに対し等速直線運動を仮定すれば,物体の位置,運動速度は推定できた。 2.局所視覚の研究 従来,2台のカメラによる立体視では,観測点の両カメラ間での対応位置を検出することが困難であった。そこで本研究では,3眼視の原理を用いロボット移動に伴う異なった視点からの観測情報により興味がある物体の詳細な形状を認識する研究を行なった。具体的には,ステレオカメラを搭載したロボットが獲得した時系列ステレオ画像に対して3眼視の手法を適用し,各視点の位置関係から生じる幾何学的な拘束から線分単位の時空間の対応付けを行なった。なお対応付けにおいて,精度の良い3次元情報を得るためにはロボットの正確な位置を知る必要がある。正確なロボットの位置情報は,全方位視覚の情報を利用する予定である。また対応付け後,三角測量の原理を用いて環境の3次元ワイヤフレームモデルを構築した。なお移動視により得られる画像は大量であるので,能率良く処理する必要がある。このため環境の初期モデルが構築されると,以降の画面では移動により得られた新たな情報とモデルと比較して能率良く環境モデルを更新した。 ところで一般にステレオ視や3眼視等の受動型センサから得られる情報は,物体の稜線上の距離情報のみで,稜線によって囲まれた領域が空洞かまたは物体面かの判断は行なっていない。移動ロボットが環境内を自由に移動する場合,壁との衝突を回避するために面を認識する必要がある。即ち環境理解のためには,線レベルの情報では不十分で,面そして面と面で囲まれた物体と言った解釈を必要とする。そこで線分の連結情報と3次元世界の基礎的ないくつかの知識に基づく簡単な処理により,面の境界線の構造を探索し面の3次元情報を得る方法について研究した。本処理では,線分が欠落している部分は存在する可能性のある線分を発見,補完して面を構成するため,観測していない面の認識もある程度可能となった。 3.実時間画像処理システムの研究 上記処理方法を実時間で画像処理するためのシステムを構築した。現在,処理速度等の評価を行なっている。今後は,移動ロボット上に上記大局視覚,局所視覚のセンサを搭載し,建屋内(室内廊下)の実環境下で,上記処理方法と実時間画像処理システムの実用上の問題点を明らかにする。
|