本研究の目的は、自律航法を行う移動体に取り付けられたマルチセンサから得られる複数の情報を、自律航法に適した形で互いに補完・融合する方策を見出すことにある。 自動走行車で用いられるセンサ情報の基幹として、カメラの他のセンサに対する補完性について考察した。一般に良く用いられるセンサは、絶対位置に対する初期値の設定と内部状態に関する定常特性の変動という問題がある。一方、カメラからの画像データは膨大な情報量を有するため、計算量の問題があるが、環境情報を取得できるという利点を有する。 本年度では、前年で得られた知見、すなわちある特定の通路環境において、画像環境情報に位置情報が含まれていることの指摘と、その位置情報を画像データから効率よく抽出できるアルゴリズムの提案に基づき、自律走行車搭載実現への1ステップとして、移動体に対するカメラのトラッキングシステムを開発した。この作業とは別に、学内キャンパス走行用として、仕様が最大速度4Km、登坂10度、搭載重量50Kgの自動走行車を製作した。 画像トラッキングシステムの問題点としては、カメラの光学的パラメータのあいまい性およびカメラを稼働する機械的部分の非線形性をどのようにしてモデリングを行い、制御を実行するかにある。本年度では、これらに実用的に対処できるよう適応アルゴリズムを導入し、かつ画像データの高速処理を可能にするデータ処理システムを構築した。構築したトラッキングシステムでは、カメラパラメータを正確に知る必要がないため、システムの設置が容易であり、かつ点光源としての移動物体に対するトラッキング性能は、カメラの視線のヨ-角およびピッチ角とも30度程度でかつ速度が0.1周期/秒程度であるなら、カメラスクリーンフルスケールの1/10程度の追従遅れ範囲でトラッキングを行なえるという成果を得た。
|