ロボットによる人の道具利用行動観察に基づく行為目的と操作手段の関係認識と行動実現
Project/Area Number |
12J08765
|
Research Category |
Grant-in-Aid for JSPS Fellows
|
Allocation Type | Single-year Grants |
Section | 国内 |
Research Field |
Perception information processing/Intelligent robotics
|
Research Institution | The University of Tokyo |
Principal Investigator |
長濱 虎太郎 東京大学, 大学院情報理工学系研究科, 特別研究員(DC2)
|
Project Period (FY) |
2012 – 2013
|
Project Status |
Completed (Fiscal Year 2013)
|
Budget Amount *help |
¥1,800,000 (Direct Cost: ¥1,800,000)
Fiscal Year 2013: ¥900,000 (Direct Cost: ¥900,000)
Fiscal Year 2012: ¥900,000 (Direct Cost: ¥900,000)
|
Keywords | 生活支援ロボット / 観察学習 / 重畳関係 / 複合ビジョンヘッド |
Research Abstract |
本研究の目的は、生活支援ロボットが人間を観察し、道具を用いたタスクの目的と各操作の手段を認識し再現するための一手法を実証的に明らかにすることであった。従来の観察学習手法では観察対象の追跡結果を入力としていたが、袋に入れる・包丁で切るといった道具利用の観察では、観察対象が見えない場合が発生する。これに対し本課題では、観察対象が見えなくなること自体に観察対象の状態を推定するための重要な情報が含まれるとの着想のもと、遮蔽関係を積極的に利用して観察対象同士の関係を推定し利用する研究を進めており、ロボットによる観察と道具利用タスクにより評価を行ってきた。 本年度は、複数の観察対象同士の遮蔽関係あるいはフレームアウトにより、対象が全く見えなくなる重要な時区間が存在する状況を想定し、観測できた時刻の見え方のみを使って、遮蔽下の状況を推定する仕組みの解明と評価をおこなった。本手法では、観察対象の疎な探索結果を入力とし、観察対象同士の視覚重畳関係と、運動特徴の時間的推移から、上下・包含関係の変化を含む作用を検出する。その際に視覚重畳関係と運動特徴の時間的推移を補間するための数種類の知識を与えることで、袋への収納や片付け等の観察においても、タスク目的と許される操作手段が推定可能であることを示した。 さらに、ロボットが自身の体と再現時の環境に合わせて、観察学習した手段を用いてタスク目的を達成するために、STRIPSタイプの因果関係記述とタスクプランナを用いる手法を導入した。物体同士の上下・包含関係と道具的利用法を表す述語を定義して、観察学習したタスク目的と手段を記述し、各々の上下・包含関係の操作の前には、許される操作手段を前提条件として確認させる。最終的に日常環境での片付け作業、洗濯ネットを用いて洗濯物を仕分け作業を等身大ヒューマノイドへ観察学習・再現させる実験により、本手法の有用性を確認した。
|
Strategy for Future Research Activity |
(抄録なし)
|
Report
(2 results)
Research Products
(20 results)