研究概要 |
本度は,視覚処理システムについて,シミュレーション環境と,実画像の両面から環境認識処理を行うシステムの実現を行った 1.実験用両眼視覚システムの実現 両眼の同期をとりながら画像を取得し,これらの画像を用いてステレオ視が行えるシステムを構成し,両眼立体視と平面空間検出機能に基づいた三次元空間形状と,三次元方向ベクトル計算に基づいた運動情報を得るためのアルゴリズムとソフトウェアの実装を行った. 2.実験用日常環境空間の三次元環境モデル構築 ロボットの実験環境となる日常環境空間として台所を取り上げ,これの三次元幾何形状モデルを構築した.またこのモデルの内部情報として棚や扉などを24個の可動物体として定義し,さらにこれらの可動物体に対する操作知識として16個の把持可能点の記述行った. 3.階層的タスクネットワーク(HTN)の開発 行動レベルのプランナと動作レベルのプランナを統合する手法として階層的タスクネットワーク(HTN)を開発した.このネットワークは与えられた上位の行動タスクをプリミティブ動作の集合として表現できるまで分割するものであり,プリミティブ動作は動作レベルプランナを用いて自律的に生成する. 4.三次元環境モデル生成用プログラムの実現 視覚システムからの情報に基づいて環境の簡易モデリングを行った.床面検出機能を用いてロボットの移動可能領域と障害物の存在知覚を行い,自己の移動経路をその計測モデルから行うシステムを構築した.
|