研究概要 |
ロボットが行動しながら自己内に環境のモデルを形成する課題は,その知能を実現するためのキ-と考えられ,多くのヒトが研究してきた.その多くは,予め想定した環境構造の枠組みに基づいてロボットの観測・行動の手続きをプログラムし,それに従ってロボットが環境モデルを詳細化するアプローチがとられた.しかし,実世界で働くロボットは,想定されてない構造の環境に入った時も,それを認知し,ある程度適応することが必要である. 本研究は,構造化されてない2次元環境内でのロボットの構造認知の基礎について探求した.この場合,探索経路には多くの可能性があるので,ロボットは環境構造を反映した監査行動を選択することが望ましい.環境の局所構造を推定し,その構造軸にそって移動観測する.具体的には,全方位ステレオ画像を撮像し,その水平エッジから構造軸方向を算定する.次ぎに,自由領域を構造軸に沿って移動し,経路パノラマ画像から環境構造を推定する.自由領域の端に達すると,再び全方位画像を撮像し,そこで得られた環境構造に基づいて次ぎの行動を行う.ここでは,環境の構造を推定する行動・観測と推定結果に基づく行動・観測の枠組みを提案し,実験によりその有効性を確かめた. 視覚認知の実験を行うために,Real World Interface社のB12型ロボットにセンサを搭載し,自律移動を可能にした.視覚センサは,小型のカメラを8台用いて,実時間で360度方向を撮像し,これら画像をコンピュータ内で融合することによりパノラマ画像を生成可能にした.
|