視覚による動作理解に基づく人間・ロボット協調作業システムの研究
Project/Area Number |
09750293
|
Research Category |
Grant-in-Aid for Encouragement of Young Scientists (A)
|
Allocation Type | Single-year Grants |
Research Field |
Intelligent mechanics/Mechanical systems
|
Research Institution | The University of Electro-Communications |
Principal Investigator |
木村 浩 電気通信大学, 大学院・情報システム学研究科, 助教授 (40192562)
|
Project Period (FY) |
1997 – 1998
|
Project Status |
Completed (Fiscal Year 1998)
|
Budget Amount *help |
¥2,200,000 (Direct Cost: ¥2,200,000)
Fiscal Year 1998: ¥500,000 (Direct Cost: ¥500,000)
Fiscal Year 1997: ¥1,700,000 (Direct Cost: ¥1,700,000)
|
Keywords | 動作理解 / 視覚 / タスクモデル / 人間-ロボット協調 / 人間・ロボット協調 |
Research Abstract |
本研究では、将来の育児や介護への応用を目指して、ロボットが人と協調して作業を行う、特に、人の作業の補助を行うことを考える。その際、ロボットは、現在人により何が行われているかを正確に認識・理解し、それにあった補助を行う必要がある。そこで本研究では、人がデータグラブなどの装備を装着することなく自然に行う作業を視覚により認識し、自律的に補助動作を行う協調作業システムを構築した。そこでは、協調作業時の認識・補助動作ための作業モデルは、人があらかじめ両腕を用いてロボットの前でデモンストレーションして見せた一連のシーンを解析することにより、自動的にシステム内に生成された.そして,協調作業時にロボットは視覚を用いて,現在の作業対象物や人間による把持の有無を認識し,作業目的・作業モデルに基づいて,必要な補助作業を計画・実行した. 具体的には, (a) カラートラッキングビジョンとステレオ視覚を用いて,3次元物体認識システムを構築した. (b) カラー・トラッキングビジョンとリアルタイム・レンジセンサを用いて,人の両手のトラッキングと把持形状の認識システムを構築した. (c) 作業モデルの枠組を定義した上で,人が単独で両腕により行う動作に対して,動作モデルに基づいて事象とスタックによる解析を行い,作業モデルを自動生成した. (d) 人が片腕または両腕で行う作業を観察し、動作モデルに基づいて人の動作を理解し,人の作業とロボットの作業を分離し補助動作計画を行うシステムを構築した.その際,適切な補助動作を計画するためには、動作モデルだけでなく動作の履歴から発生する動作文脈の管理が重要となる。このために、作業モデルに基づく「動作文脈の管理システム」を構築した。 (e) 人とマニピュレータ・多指ハンドによる「おもちゃパーツの組み立て実験」を行い,上記システムの有効性を検証し,動作の認識に基づく人間・ロボット協調システムの可能性を示した.
|
Report
(2 results)
Research Products
(10 results)