研究課題/領域番号 |
20J15720
|
研究種目 |
特別研究員奨励費
|
配分区分 | 補助金 |
応募区分 | 国内 |
審査区分 |
小区分61050:知能ロボティクス関連
|
研究機関 | 中部大学 |
研究代表者 |
荒木 諒介 中部大学, 工学研究科, 特別研究員(DC2)
|
研究期間 (年度) |
2020-04-24 – 2022-03-31
|
研究課題ステータス |
完了 (2021年度)
|
配分額 *注記 |
1,700千円 (直接経費: 1,700千円)
2021年度: 800千円 (直接経費: 800千円)
2020年度: 900千円 (直接経費: 900千円)
|
キーワード | 深層学習 / ロボティクス / ロボットビジョン / ビジュアルサーボ / ロボット制御 / マニピュレーション |
研究開始時の研究の概要 |
人とロボットが協働する未来を前に,未だロボットは多くの課題が残されている.特定物体把持タスクの問題点として,物体認識・把持位置検出・動作計画といった複数タスクを同時に処理する必要がある点,物体検出や把持位置検出に失敗しても,失敗を知覚せずに処理を続行してしまう点が挙げられる.本研究では,センシングと把持動作を同時に行う深層動作計画システムの実現に取り組む.入力画像から物体認識・把持位置検出結果と把持動作計画を同時に出力することで,低コストなロボットでもリアルタイムに処理でき,人間のようにスムーズで正確な把持を実現する.
|
研究実績の概要 |
昨年度から進めていた「画像生成ネットワークの逆伝播に基づく繰り返し更新による物体姿勢推定を用いた物体把持」に関する研究について,精度向上とロボットにおける実機実験を行った.本研究では,入力された姿勢パラメタの物体画像を生成するネットワークを構築し,ネットワークの逆伝播に基づく繰り返し処理による物体の6D姿勢推定を実現する.はじめに,中間表現ネットワークを用いて,姿勢推定対象物体の画像をセグメンテーションラベル等の中間表現に置き換える.次に,姿勢デコーダネットワークを用いて,ランダムな姿勢パラメタから中間表現画像をデコードする.この2つの画像の誤差を姿勢デコーダネットワークに逆伝播し,姿勢パラメタの更新量を求める.この処理を粗い解像度の画像で繰り返し,ある程度の精度が得られたら高解像度の画像で繰り返し,正確な姿勢パラメタを推定する.これにより,単眼カメラの画像のみを用いた姿勢推定を実現することができた.
また,修士の時点で取り組んでいた「マルチタスクDSSDによる物体検出,物体セグメンテーションおよび物体把持位置検出」に関する研究について,より詳細な実験を行って再検証した.本研究は,深層学習を用いた物体検出アルゴリズムであるDeconvolutional Single Shot Detector (DSSD) をベースとして,物体検出・セマンティックセグメンテーション・物体把持位置検出の3タスクを同時実行する.詳細な検証の結果,マルチタスク学習が性能向上に良い影響を与えていることがわかった.
|
現在までの達成度 (段落) |
令和3年度が最終年度であるため、記入しない。
|
今後の研究の推進方策 |
令和3年度が最終年度であるため、記入しない。
|