Research Abstract |
複数のロボットで作業を行う場合,すべてを一人で操作するのは不可能であるが,一台を人間が操り,その作業を自律的に補助してくれるロボットがいれば,作業は効率的になる.このようなロボットシステムでは,自律的に補助を行うロボット(Assistantsと呼ぶ)は,人間の操縦するロボット(PrimeMoverと呼ぶ)の動作を理解しなくてはならない.本研究では,AssistantによるPrimeMoverの動作理解と補助の実現について以下の方法を考案した. 動作理解の機構として人間の認知モデルが参考になると考えた.Cardらの提唱するModel Human Processorは本稿の動作理解機構の基になっている.このモデルでは,人間の認知のメカニズムを知覚システム,認知システム,運動システムという3つのシステムとしてとらえている.本研究では,動作理解機構は,各機能によって,感覚器官部,特徴知覚部,動作認識部,補助動作部の4つに分かれる. 「感覚器官部」は、ここでは,PrimeMoverの動きを観察した画像や,直接得た関節情報などから各足の状態を表すデータ行列を生成する.「特徴知覚部」では,感覚器官部から得たPrimeMoverのデータ行列をファジィ・フィルタを通すことによって,以下の特徴を各部位について強調したデータ行列に変換する.「動作認識部」では,キューに蓄えられた動作の基本要素リストの構成を調べ,現在行なわれている動作が何かを認識する.「補助動作部」では,動作が認識されると,その動作の記号が補助動作部内のEventManagerに送られる.ここでは動作の性質によって,Eventをどのように発行するかを判断する. 動作理解の実験として,箱の持ち上げ作業を行なった.実験は,マスタアームの操作でPrimeMoverに前足で箱を掴ませ,この『物を持ち上げる』という動作をAssistantが理解し,補助動作として箱の持ち上げを手伝うものである. 本研究では,人間の操縦するロボットを補助する自律ロボットの動作理解手法を考案し,箱の持ち上げを協調して行うという実験を通してその有効性を示した.今後,画像情報の利用などを実現させたい.
|