研究概要 |
本研究は人間の農作業に関わる知を構造化・一般化してロボットの知能として活用できる方法論を探求する。マルチスペクトルビジョンセンサをベースにしたステレオビジョンを構成してロボットに装備し, 作業と同時に農地環境情報を収集する。バーチャルリアリティ(VR)を介して圃場内の様子を高い臨場感のもとで再生できるシステムを開発し, 知識のインタープリタとして機能させる。本年度は以下の2項目について実施し, 成果の一部を国際シンポジウムにおいて講演した。また論文としても投稿し現在印刷中である。 1)画像処理による有用情報の抽出 R-G-B-NIRの4チャンネルのマルチスペクトルビジョンセンサ(640×480)をロボットビジョンに採用した。ロボットの取得した情報を実空間に正確に表現する方法論の確立が本質であるが, 生育情報や雑草の繁茂状態など人間の関心のある情報だけを抽出して仮想空間に表現することも意思決定支援の観点から重要である。このようなことから土壌, 植生に関してビジョンによって推定できる有用情報を画像処理によって自動抽出できる方法を考案した。 2)ローカル座標系からグローバル座標系への変換法の確立 画像情報はカメラ座標系におけるローカル座標で出力される。そのセンサ座標系からロボットのロール角, ピッチ角などの姿勢角, 雲台回転角, GPS座標を使用して座標変換を行うソフトウェア開発を行った。すなわち, VRで3Dを再構成する上で必要となるビジョンデータをすべてグローバル空間に変換できる方法を確立した。
|