2004 Fiscal Year Annual Research Report
ヒューマノイドロボットにおける視覚機能に基づく行動プランニング
Project/Area Number |
04F04737
|
Research Institution | The University of Tokyo |
Principal Investigator |
稲葉 雅幸 東京大学, 大学院・情報理工学系研究科, 教授
|
Co-Investigator(Kenkyū-buntansha) |
GRAVOT Fabien 東京大学, 大学院・情報理工学系研究科, 外国人特別研究員
|
Keywords | ヒューマノイド / ロボット視覚 / 行動プランニング / 三次元環境モデル / 行動-動作統合プランナ / 物体操作知識 / 移動可能領域 / 移動経路プランニング |
Research Abstract |
本度は,視覚処理システムについて,シミュレーション環境と,実画像の両面から環境認識処理を行うシステムの実現を行った 1.実験用両眼視覚システムの実現 両眼の同期をとりながら画像を取得し,これらの画像を用いてステレオ視が行えるシステムを構成し,両眼立体視と平面空間検出機能に基づいた三次元空間形状と,三次元方向ベクトル計算に基づいた運動情報を得るためのアルゴリズムとソフトウェアの実装を行った. 2.実験用日常環境空間の三次元環境モデル構築 ロボットの実験環境となる日常環境空間として台所を取り上げ,これの三次元幾何形状モデルを構築した.またこのモデルの内部情報として棚や扉などを24個の可動物体として定義し,さらにこれらの可動物体に対する操作知識として16個の把持可能点の記述行った. 3.階層的タスクネットワーク(HTN)の開発 行動レベルのプランナと動作レベルのプランナを統合する手法として階層的タスクネットワーク(HTN)を開発した.このネットワークは与えられた上位の行動タスクをプリミティブ動作の集合として表現できるまで分割するものであり,プリミティブ動作は動作レベルプランナを用いて自律的に生成する. 4.三次元環境モデル生成用プログラムの実現 視覚システムからの情報に基づいて環境の簡易モデリングを行った.床面検出機能を用いてロボットの移動可能領域と障害物の存在知覚を行い,自己の移動経路をその計測モデルから行うシステムを構築した.
|