本課題では,モデルを明示的に与えることなく,カメラ画像に基づくロボットへの教示再生を行う「ビューベースト教示再生」について研究を行った.モデルという事前知識を与えないことによる制約はあるが,一定の範囲内で,教示したときと条件が変化しても対応可能な教示手法として開発を行った. 具体的には,視覚情報・深度情報・力覚情報を統合的に利用できるようにすることで,多様な物体ハンドリング作業に適用可能なモデルフリーロボット教示手法に発展させることを目指した.そのため,光弾性を用いることでロボットに加わる力の情報を可視化し,カメラ画像に重畳させることによって,ビューベースト教示再生で力制御タスクを実現可能にした.また,GPGPUを用いることで,ビューベースト処理に必要な主成分分析の計算の高速化を実現した.また,主成分分析の代わりにオートエンコーダを用いるビューベースト教示再生手法の開発も行い,パラメータ設定に対する教示再生性能の変動が抑えられることを確認した.これらの成果に基づいて,マニピュレータ,ロボットハンド,ヒューマノイドロボットなどを対象に,カメラや深度センサを用いて,視覚情報・深度情報・力覚情報を利用したビューベースト教示再生が可能となった.また,開発したビューベースト教示再生手法によって,モデルを用いることなく,物体の押し操作や倣い作業などの様々な動作を教示可能であることを仮想環境・実環境で確認した.
|