ロボットの動作を生成するためのゴールを設定するための技術として、深層学習を活用して推定した物体位置・姿勢認識技術を構築した。ARマーカを用いて半自動的に物体3次元姿勢をアノテーションする方法やStructure-from-motionを用いてほぼ自動的にラベル付けする技術を構築した。次に、深層学習を活用して推定した物体位置・姿勢情報をゴールとして、ロボットアームの把持動作を生成した。sawyerロボットアームとデプスセンサーを使用し、ソフトウェアにはROSを用い、CNNを用いた物体検出と3次元姿勢認識、3Dモデルマッチング、モーションプランニングと動作生成を行うシステムとして統合した。その結果、物体認識とpick-and-place動作を安定的に生成できるシステムとなり、棚への物体陳列作業を行うことができた。 また、CNNを用いた物体認識器と環境の2Dマップをもちいた移動ロボットの移動軌道生成についての研究を行った。ロボットにはFetch移動マニピュレータを用い、物体認識器にはYOLOv3を用いた。その結果、シミュレータ(Gazebo)内だけでなく、実環境においても対象物の比較的近くまでロボットを移動させることが可能となった。 さらに、2次元地図上の移動ロボットの軌道を学習するために機械学習に基づく軌道生成手法を構築した。スタートとゴールを地図上にランダム与えて、既存の軌道生成手法で軌道を生成することでデータセットを構築し、条件付オートエンコーダを用いて学習することで障害物を回避できる軌道を生成することができた。現在、3D auto encoderを用いて環境の障害物に関する視覚情報を情報圧縮し軌道生成学習モデルを組み合わせてロボットアームの3次元運動軌道の推定を行っている。
|