研究課題/領域番号 |
17658111
|
研究機関 | 東京大学 |
研究代表者 |
芋生 憲司 東京大学, 大学院・農学生命科学研究科, 助教授 (40184832)
|
研究分担者 |
海津 裕 東京大学, 大学院・農学生命科学研究科, 助手 (70313070)
横山 伸也 東京大学, 大学院・農学生命科学研究科, 教授 (10358319)
|
キーワード | 全方位視覚センサ / オプティカルフロー / ナビゲーション / 画像処理 / 車両 / ロボット / 自律走行 |
研究概要 |
本研究は、ほ場内など明確な目印の無い領域を走行する車両を対象として、比較的安価な全方位視覚センサを用いて、移動ベクトルおよび姿勢変化を検出するシステムを開発することを目的とする。今年度は、目印が無く、また対象とする画像内に明確なエッジを検出しにくい路面上において、正確なオプティカルフローを検出するプログラムを作成し、基礎的な実験を行った。主な研究成果は以下の通りである。 1.全方位視覚センサと三次元の移動ステージおよび三軸の回転・傾斜ステージから成る実験装置を構築した。これにより、車両の移動および姿勢変化をシミュレートし、画像情報との関係を正確に取得できるようになった。 2.対象物の画像のテクスチャのみに基づいて正確なオプティカルフローを検出するためのプログラムを開発した。オプティカルフローは一般に濃度勾配法により求められるが、その場合対応できる移動量が小さく、また計算に時間がかかる。高速に計算するため、画像を二値化してマッチングさせる方法もあるが、対象物のエッジを検出しにくい画像には適応し難い。そこでテンプレートマッチング法の一つである残差逐次検定法に基づくプログラムを作成した。これにより比較的高速に正確なオプティカルフローが検出された。 3.得られたオプティカルフローを実空間座標に変換して検証することにより、オプティカルフローの検出精度を確認した。その結果ピクセル誤差の範囲内でほぼ正確な測定が行われることが分かった。 4.一方向の画像では、オプティカルフローからカメラの移動と姿勢変化を個別に検出するのが困難であるが、全方位画像では、特定の条件下でこのことが可能であることが確認できた。すなわち、得られたオプティカルフローからカメラの回転成分と移動成分を分けて検出することが出来、全方位カメラによる車両の移動ベクトルおよび姿勢変化検出の可能性が示された。
|