1.シーン画像を圧縮する方法として、大津の提案した局所自己相関関数が良い。位置推定誤差最小という基準により、空間解像度として1/64が最適であることを明らかにした。 2.自己組織的に環境マップを形成する際、各シーン画像の局所自己相関関数に位置座標を追加した拡張特徴ベクトルを自己組織化の入力とする。もちろんこの位置には曖昧性が含まれている。ここでは通常のベイズ推定とは異なり、事前確率を正規分布と仮定している。拡張特徴ベクトルにおける位置情報と画像情報の相対的重みを、位置推定誤差が最小になるように決定することを提案した。 3.段ボール等で作成した障害物を含むフィールドを利用して、実ロボットを用いた実験を行なった。ロボットの走行に伴い車輪のすべり等により位置や方位の誤差を生じ、また時間と共に増大する。この誤差の増大と走行距離の関係を実験的に求めた。なおこの誤差を含んだ位置情報を画像の局所自己相関関数と併せ用いて、自己組織化の入力とする。 4.新たな入力情報が与えられた場合、形成された環境マップを利用してシーン位置を推定するためベイズ推定が有効であることを示した。通常のベイズ推定と異なるのは、ある時刻の事後確率をロボットの移動に合わせて並行移動したものを次の時刻の事前確率とすることである。 5.上記で得られる自己組織化マップには障害物の座標が含まれていないので、位置推定と障害物回避を直ちに組み合わせることは困難である。このため赤外線センサーにより障害物までの距離を確率分布の形で求めるという提案をし、シミュレーション実験により有効性を確認した。
|