ビジュアルフィードバックによる深層モーションプランニングに関する研究
Project/Area Number |
20J15720
|
Research Category |
Grant-in-Aid for JSPS Fellows
|
Allocation Type | Single-year Grants |
Section | 国内 |
Review Section |
Basic Section 61050:Intelligent robotics-related
|
Research Institution | Chubu University |
Principal Investigator |
荒木 諒介 中部大学, 工学研究科, 特別研究員(DC2)
|
Project Period (FY) |
2020-04-24 – 2022-03-31
|
Project Status |
Completed (Fiscal Year 2021)
|
Budget Amount *help |
¥1,700,000 (Direct Cost: ¥1,700,000)
Fiscal Year 2021: ¥800,000 (Direct Cost: ¥800,000)
Fiscal Year 2020: ¥900,000 (Direct Cost: ¥900,000)
|
Keywords | 深層学習 / ロボティクス / ロボットビジョン / ビジュアルサーボ / ロボット制御 / マニピュレーション |
Outline of Research at the Start |
人とロボットが協働する未来を前に,未だロボットは多くの課題が残されている.特定物体把持タスクの問題点として,物体認識・把持位置検出・動作計画といった複数タスクを同時に処理する必要がある点,物体検出や把持位置検出に失敗しても,失敗を知覚せずに処理を続行してしまう点が挙げられる.本研究では,センシングと把持動作を同時に行う深層動作計画システムの実現に取り組む.入力画像から物体認識・把持位置検出結果と把持動作計画を同時に出力することで,低コストなロボットでもリアルタイムに処理でき,人間のようにスムーズで正確な把持を実現する.
|
Outline of Annual Research Achievements |
昨年度から進めていた「画像生成ネットワークの逆伝播に基づく繰り返し更新による物体姿勢推定を用いた物体把持」に関する研究について,精度向上とロボットにおける実機実験を行った.本研究では,入力された姿勢パラメタの物体画像を生成するネットワークを構築し,ネットワークの逆伝播に基づく繰り返し処理による物体の6D姿勢推定を実現する.はじめに,中間表現ネットワークを用いて,姿勢推定対象物体の画像をセグメンテーションラベル等の中間表現に置き換える.次に,姿勢デコーダネットワークを用いて,ランダムな姿勢パラメタから中間表現画像をデコードする.この2つの画像の誤差を姿勢デコーダネットワークに逆伝播し,姿勢パラメタの更新量を求める.この処理を粗い解像度の画像で繰り返し,ある程度の精度が得られたら高解像度の画像で繰り返し,正確な姿勢パラメタを推定する.これにより,単眼カメラの画像のみを用いた姿勢推定を実現することができた.
また,修士の時点で取り組んでいた「マルチタスクDSSDによる物体検出,物体セグメンテーションおよび物体把持位置検出」に関する研究について,より詳細な実験を行って再検証した.本研究は,深層学習を用いた物体検出アルゴリズムであるDeconvolutional Single Shot Detector (DSSD) をベースとして,物体検出・セマンティックセグメンテーション・物体把持位置検出の3タスクを同時実行する.詳細な検証の結果,マルチタスク学習が性能向上に良い影響を与えていることがわかった.
|
Research Progress Status |
令和3年度が最終年度であるため、記入しない。
|
Strategy for Future Research Activity |
令和3年度が最終年度であるため、記入しない。
|
Report
(2 results)
Research Products
(5 results)