本研究では,視覚,多指ハンド,ロボットアームを搭載したロボットに対して組み立て作業を簡便に教示することが可能な動作教示法を開発するために,(1)多指ハンドによる正確な物体操作の実現,(2)視触覚センサによる3次元情報の拡張に基づく物体の把持と移動の実現,(3)教示動作の学習の実現の3つの課題について研究を行った. 令和3年度は,(1)の課題については,対象物の色に依存せずに多指ハンドから対象物までの距離を計測することが可能な小型近接覚センサを試作し,実験によって計測原理を確認した.また,2次元平面における2指による物体の操りを想定し,指と指先の弾性要素の境界面における力分布から物体に働く力とモーメントを計算して,目標姿勢において物体に働く力とモーメントが平衡状態になるようにロボットハンドの指先の位置を求める物体の位置制御方法を開発し,シミュレータ環境において提案手法を実装してその有用性を確認した.(2)の課題については,複数の変形した布が平面上に積み重なった様子を撮影した画像から,多層ニューラルネットを利用した特徴点抽出とクラスタリングに基づいて布の分離と各布の形状を推定する手法を開発し,ロボットによる布の認識と持ち上げ実験による検証を行った.(3)の課題については,教示者を撮影した入力画像から手の領域のみを復元するAuto Encoder (AE)と物体の領域のみを復元するAEの学習を行い,それぞれのAEのエンコーダによって得られるベクトルを結合してLong Short Term Memory (LSTM)に入力することによって把持と物体のクラス分類を行う手法を開発し,実験により提案手法によって認識率が向上することを確認した.
|