Budget Amount *help |
¥3,500,000 (Direct Cost: ¥3,500,000)
Fiscal Year 2009: ¥700,000 (Direct Cost: ¥700,000)
Fiscal Year 2008: ¥2,800,000 (Direct Cost: ¥2,800,000)
|
Research Abstract |
本研究は人間の農作業に関わる知を構造化・一般化してロボットの知能として活用できる方法論を探求する。マルチスペクトルビジョンセンサをベースにしたステレオビジョンを構成してロボットに装備し,作業と同時に農地環境情報を収集する。バーチャルリアリティ(VR)を介して圃場内の様子を高い臨場感のもとで再生できるシステムを開発し,知識のインタープリタとして機能させる。 1)ハイパースペクトルカメラによる有用情報の抽出 ハイパースペクトルビジョンセンサによって植物の生育情報や雑草の繁茂状態など有用情報を自動抽出できる方法論を開発した。分光情報についてPLS回帰分析を行い,情報抽出に有効な光波長を同定して回帰モデルを構築した。今年度はオレンジ熟度,農薬残存量,雑草識別などについて高い精度で認識できる方法論を確立した。 2)VRによる空間情報記述法の開発 取得した画像情報をRTK-GPS,姿勢角センサ(IMU)による位置データの属性として取り扱い,世界測位系WGS84で表現される3次元画像空間が表現できるソフトウェアを開発した。また,共同研究者岡本がValparaiso University電子工学科に勤務する協力研究者Will博士を訪問して,VRの空間情報記述法について情報交換して計算負荷が小さいアルゴリズムを考案した。 3)データベースによる知の蓄積と自動整理 人間の意志決定が生育状態,土壌状態など様々なデータを融合して行われることに基づき,ロボットが周辺画像を取得・解析して有用情報に変換した後で,データベースに自動的に蓄積できるシステム開発を行った。
|