研究概要 |
本研究では,対象シーンに関する知識,各種センサ情報の特質,及び現在の研釈状況に応じて,明度情報・距離情報などの多種の視覚情報の解析結果を,相互に参照しながら,シーンの解釈を進めるセンサ情報の新しい統合法(知的統合)を提案し,実験した。前年度までの成果として,多種のセンサ情報を利用した個々の対象に対する柔軟な幾何モデリングが,対象の抽出,環境に対する空間推論などに役立つことが分かった。そこで,本年度は,これらの手法を多種の物体クラスに拡張し,複雑な屋外シーンを対象として,多種センサ情報から,個々の物体の抽出,幾何構造の決定と高精度化,未探索部分に対する空間推論など,移動ロボットの視覚における知的統合の基本原理の実証した。平成4年度の研究成果は,以下の通りである。 前年度は,自動車に対する柔軟な幾何モデルによる実験しか行っていないので,これを多種の物体クラスに拡張し,複数クラス複数物体を含むシーンを対象として,統合アルゴリズムを開発し,モデル駆動型による空間推論方式を確立した。センサ情報としては,ステレオカラー画像を用いる場合と,密な距離画像と濃淡画像の組合せによる場合とで実験した。前者では,ステレオ距離情報が疎らなため,カラー情報との統合利用により,シーンの分割及び,視雑空間での平面パッチの抽出,高精度化の実験を行なった。後者では,距離情報から得られる平面パッチセグメントの面の信頼性の組合せから,内部自由度をもつモデルのパラメータを推定し,物体認識の定量化を試みた。モデルとして自動者以外に,屋外の建物などを対象とした。また,いくつかのシーンに対して本手法を適用して,多種視覚情報の知的統合の効果を評価し,アルゴリズムを改良した。
|