ヒューマノイドロボットにおける高機能作業動作プランナと視覚機能の統合
Project/Area Number |
04F04737
|
Research Category |
Grant-in-Aid for JSPS Fellows
|
Allocation Type | Single-year Grants |
Section | 外国 |
Research Field |
Perception information processing/Intelligent robotics
|
Research Institution | The University of Tokyo |
Principal Investigator |
稲葉 雅幸 東京大学, 大学院・情報理工学系研究科, 教授
|
Co-Investigator(Kenkyū-buntansha) |
GRAVOT Fabien 東京大学, 大学院・情報理工学系研究科, 外国人特別研究員
|
Project Period (FY) |
2004 – 2005
|
Project Status |
Completed (Fiscal Year 2005)
|
Budget Amount *help |
¥2,400,000 (Direct Cost: ¥2,400,000)
Fiscal Year 2005: ¥1,200,000 (Direct Cost: ¥1,200,000)
Fiscal Year 2004: ¥1,200,000 (Direct Cost: ¥1,200,000)
|
Keywords | ヒューマノイド / ロボット視覚 / 行動プランナ / 三次元環境モデル / 行動-動作統合プランナ / 物体操作プランナ / 移動可能領域 / 移動経路プランニング / 行動プランニング / 物体操作知識 |
Research Abstract |
本研究の目的は,人間のように目を持って二本脚で歩くことができるヒューマノイドロボットにおいて,視覚機能よる環境計測に基づいて適切な行動計画を生成するアルゴリズムとシステム構成法に関して理論と実験の両面から行うことである.視覚機能には,両眼ステレオ視によりで三次元情報を獲得できるシステムを実現し,環境の静的な状態の知覚だけでなく,物体操作の物体認識と注視処理,および,歩行時における視野全体の運動に対する自己運動と環境物体運動の知覚機能の実現を特徴とする.行動プランニング機能には,ロボットがおかれている状況の認識に基づいて,目標となる環境状態を判断し,自己の行動計画を立案する機能と,物体操作中,歩行移動中の環境変化に対して生成行動の修正を行う仕組みを導入に新規性を持つ. (1)物体操作行動のための環境知識のモデリング法の開発:ヒューマノイドの身体サイズ,構造などの記述するモデリングシステムに対し,物体形状に加え,把持対象点,操作対象店の知識記述を導入することで物体操作行動プランニングを簡潔な記述で実現可能になった (2)人間の物体操作動作の観察:人間と動作物体のモデルベースな視覚認識を用いて動作記述を獲得し,これをプランナが動作計画する際の初期値とすることで,人間に近い自然な動作のプランニングが可能になった. (3)歩行移動のための歩容計画と物体操作のための腕の運動軌道の生成:視覚による環境記述モデルに基づいて移動のための行動計画と物体操作のための動作軌道生成を行った.
|
Report
(2 results)
Research Products
(4 results)