本研究では、多指ロボットハンドの掌全体を使った巧みかつ安定した操り動作を実現するために,複数種類の触覚センサからの情報の統合とそれによる動作生成を目指した.まずは深層学習モデルの調査をした.触覚情報と関節情報を平面的に注意するように学習でき,未知の把持位置や物体との特性に合わせて適応的に動作を変えることに成功した.次にロボットハンドによるより器用な操り動作のために高分解能の光学式触覚センサを開発・改良した.人間の指先の面接触形状を取り入れ,操りが容易な指先形状でありながら微細な把持状態を取得できることを確認した.現在は,複数種類の触覚センサを統合したことによる繊細な動作生成を行っている.
|