研究概要 |
本研究では,全方位視覚センサ搭載の複数台の移動ロボットが,互いの観測情報(物体の方位情報など)を相互に協調利用し,行動のために必要な情報を効率的に獲得する方法を確立する。第1には,観測方位情報から他のロボットと静止、移動未知物体を分類、各々の位置、運動情報を推定する方法を提案した。具体的には,時系列間での観測方位角の変化は,ロボットと観測対象間の相対運動の方向を現わすと言う幾何学的性質を持つ.また2台のロボット間で観測した相対運動方向には位置にかかわらず一定の関係が成立する。そこで各ロボットは各観測対象(未知物体+他のロボット)の相対運動方向を計算、この情報をロボット間で相互利用することでもう一方のロボットを同定し,また各物体の相対運動方向を計算することで静止環境と動物体とを識別した。第2に観測された時系列方位角情報の内、静止物体候補に対しては,各ロボットで環境マップ(静止物体の位置情報)を推定する。この生成方法はすでに構築済みである。ただし,多くの物体が存在する環境では、遮蔽などが頻繁に起こるため時系列間で各物体を追跡するのが困難になる。そこで時系列間での対応付けの信頼性向上をはかった。本処理では、個別に生成された環境マップを観測誤差を考慮した対応付けを行い、ベースラインの長いステレオにより静止物体については位置情報の更新を行った.以上の観測方法に関して,実環境で走行実験を行い、有効性を検証した。しかし複数台のロボットを用いた場合,ロボットの台数の増加に伴うロボット同士の衝突や通信のコストの問題があり,協調行動を行うタイミングまたロボットの動きに関しては今後の課題である.
|