研究課題/領域番号 |
20J15720
|
研究機関 | 中部大学 |
研究代表者 |
荒木 諒介 中部大学, 工学研究科, 特別研究員(DC2)
|
研究期間 (年度) |
2020-04-24 – 2022-03-31
|
キーワード | 深層学習 / ロボティクス / ロボットビジョン / ビジュアルサーボ / ロボット制御 / マニピュレーション |
研究実績の概要 |
ビジュアルフィードバックのベース手法として,画像生成ネットワークの逆伝播に基づく繰り返し更新による物体姿勢推定を用いた物体把持についての研究を行った.本研究では,入力された姿勢パラメタの物体画像を生成するネットワークを構築し,ネットワークの逆伝播に基づく繰り返し処理による物体の6D姿勢推定を提案する.はじめに,中間表現ネットワークを用いて,姿勢推定対象物体の画像をセグメンテーションラベルなどの中間表現に置き換える.次に,画像生成ネットワークを用いて,ランダムな姿勢パラメタから中間表現画像を生成する.この2つの画像の誤差を画像生成ネットワークに逆伝播し,姿勢パラメタの更新量を求める.この処理を粗い解像度の画像で繰り返し,ある程度の精度が得られたら高解像度の画像で繰り返し,正確な姿勢パラメタを推定する.これにより,単眼カメラの画像のみを用いた姿勢推定を実現する.データセットを用いた実験では,従来手法と比べて精度向上していることがわかった.また,ロボットシステム実機に本手法を取り込んで実験し,物体をうまく把持できることがわかった.中には把持に失敗する例もあるため,今後は精度向上に取り組む予定である.
また,上記の手法をビジュアルフィードバックに応用した手法として,逆伝播に基づくビジュアルフィードバックについての研究を行った.観測データから対象物体を探し,その物体をカメラ中心となるようサーボモータを制御する.サーボモータの制御コマンドは,画像生成ネットワークの逆伝播により獲得する.予備実験として,タスクボードにある穴にペグを挿入するタスクを想定し,画像の二値化により穴と背景を区別した画像と生成ネットワークが生成した画像の誤差を逆伝播し,少しずつ穴をカメラ中心に移動させることができた.
|
現在までの達成度 (区分) |
現在までの達成度 (区分)
3: やや遅れている
理由
COVID-19の影響で,2020年10月に開催予定だったロボット競技会が中止となったため,予定を大幅に変更した.まず,昨年時の時点で不足していたモーションプランニングやビジュアルサーボの論文調査を行った.また,深層モーションプランニングで重要であると判断したNeural Ordinary Differential Equations (Neural ODE) について詳細に調査した.Neural ODEはニューラルネットワークの層を微分方程式に置き換えることで柔軟な表現を獲得できるものであり,モーションプランニングに活用することでスムーズな動きを実現できると考えている. 2021年3月には,予定通りロボティクス分野のトップ会議へ論文を投稿した.内容は昨年度から研究を進めていた「画像生成ネットワークの逆伝播に基づく繰り返し更新による物体姿勢推定を用いた物体把持」である.本研究は物体の姿勢パラメタを入力するとその姿勢通りの画像を生成する「画像生成ネットワーク」から得られた画像と観測データの誤差を計算し,画像生成ネットワークに逆伝播することで,観測データの姿勢パラメタを間接的に求める手法である.
|
今後の研究の推進方策 |
今後は,画像生成ネットワークの逆伝播に基づく繰り返し更新による物体姿勢推定を用いた物体把持について,アルゴリズムの精度向上や,これをベースとしたモーションプランニングアルゴリズムの提案を予定している.また,逆伝播に基づくビジュアルフィードバックについて,これまでの実験をもとにロボットシステム実機を動作し,実際にサーボモータの制御が可能であることを確認する予定である.
|