研究課題/領域番号 |
15J07023
|
研究機関 | 東京大学 |
研究代表者 |
室岡 雅樹 東京大学, 情報理工学系研究科, 特別研究員(DC1)
|
研究期間 (年度) |
2015-04-24 – 2018-03-31
|
キーワード | ヒューマノイドロボット / マニピュレーション / 状態推定 / 三次元視覚認識 / 深層学習 / 動作計画 / 物体物理特性推定 |
研究実績の概要 |
本年度はロボットが現実世界において操作対象物の状態をセンサ情報から推定・認識する手法を確立した.本研究ではロボットが未知遠隔環境で自律的にタスクを遂行することを最終的な目的としているが,そのためにはタスク遂行に必要となる情報をロボットが自律的に推定・認識し人間に提示することが重要である.特にロボットは災害現場や日常生活環境において多様な物体を扱う必要があり,物体の質量・摩擦係数等の物理特性と物体の位置姿勢等の幾何状態の推定・認識が重要な課題であると考えこれに取り組んだ. ロボットが大型重量物を安定に操作するために,マニピュレーション中の力学制約誤差を二次計画法により計算することで,物体操作中のロボットの視覚・力覚センサ情報から物体物理特性の尤度分布を導出する手法を提案した.これによって逐次的にセンサ情報を統合し,物体物理特性をロボットが自律的に獲得することを可能にした. ロボットが操作している物体が計画と異なる運動をした場合にはロボットがオンラインに物体運動エラーを認識し修正動作を計画・実行することが必要となる.本研究では,ロボットの視覚センサから得られた三次元点群からエッジや面などの幾何要素を抽出し,物体モデル中の幾何要素との対応を計算することで,物体の部分的な領域の情報のみから位置姿勢を認識する手法を提案した. 近年機械学習で大きな成果を上げている深層学習(Deep Learning)によって,ロボット視覚センサの画像内物体三次元運動を予測することで,ロボット操作行動計画における物体運動の探索領域を制限し効率を上げることが可能であると考えられる.ロボット視覚センサのRGB画像とDepth画像を入力として物体運動を出力する深層学習モデルを構築し,動力学シミュレータ上で自動生成されたデータセットによってモデルを学習し予測を行った.
|
現在までの達成度 (区分) |
現在までの達成度 (区分)
1: 当初の計画以上に進展している
理由
本年度は,ロボットのマニピュレーション計画において重要となる物体物理特性推定手法や物体位置姿勢認識手法を考案し,等身大ヒューマノイドを用いた実験によってこれらの有効性を示した.操作対象物の物体物理特性は従来の動作計画研究分野では既知として扱われていることが多いが,現実世界の様々なマニピュレーション問題にロボットを適用するためには物理特性によって定められる力学制約を考慮することは重要であり,本研究の有用性は大きいと考える.また,人工知能研究で大きな成果をもたらしている深層学習をロボット操作行動計画の効率改善に活用するためのモデルを検証しており,最新の研究成果を積極的に取り入れる努力をしている.学会誌論文二本の採録決定を含め積極的に論文執筆・学会発表をこなしており,研究は計画以上に進展していると考える.
|
今後の研究の推進方策 |
本研究の最終年度である来年度は,これまでの二年間で開発した基礎技術を統合し,ヒューマノイドロボットの未知遠隔環境における自律行動のため統合システムを構築する.これまでに提案した計画,認識手法により,逐次的に周囲の状況を認識しロボットの動作を計画・修正することが可能となった.これらを用いて認識,計画,修正をオンラインで行うループを組むことで,未知遠隔環境においてロボットが自律的に活動することが可能になると考えられる.
|