本年度の活動では,人の道具操作の様子を視覚センサにより観測し,道具などの操作対象における物体同士の見えの関係をモデル化し,それに基づいて物体間の関係や操作の種類を推定する方法を研究した.昨年度に引き続き,カラー画像と深度情報が得られるセンサをロボットの頭部に搭載し,対面した人間の操作行動を観測する方式を取った.本年度は特に,特定の視点で物体操作を観測したときに視覚情報として得られる物体の重畳関係を体系化し,我々の対象とする物体操作がその中のどの部類に属するかを明確化した.その上で実機実験を行い,効果を確かめた.また,二枚の平板からなる簡易ハンドを作成し,感圧センサを密に配置したロボットハンドハードウェアを試作した.このハンドを人間が操作することでどのような把持行動が可能となるかを分析する研究を行った. 研究期間全体を通した研究成果は以下3項目にまとめられる.(1)人の道具操作の様子を視覚センサにより観測し,そこから物の掴み方や操作軌道,操作の種類を抽出する方法,(2)人の手による物体の掴み方と簡易二指ハンドによる物体の掴み方を比較し,それらの間でマッピングを行う方式,(3)道具などの操作対象における重畳・随伴関係のモデル化と,それに基づく操作中の物体追跡.これらの研究活動により,単純な機構のハンドを搭載したロボットへ適用するための認識手法と動作計画手法が構築された.本研究の成果を利用することにより,人間の物体操作行動をロボットの知識とするための方式が重畳関係推定という概念により体系化され,人間の物体操作を容易にロボットへ教示することができるようになった.これより,ロボットは人間による教示から得たセンサデータを利用して,自身が持つ機構に見合った操作行動を実現することが可能になった.
|