2020 Fiscal Year Annual Research Report
Control of a Mobile Robot by Integrating Multiple Sensors and Probabilistic Visual Feedback
Project/Area Number |
18K04046
|
Research Institution | University of Yamanashi |
Principal Investigator |
大原 伸介 山梨大学, 大学院総合研究部, 助教 (60550762)
|
Project Period (FY) |
2018-04-01 – 2021-03-31
|
Keywords | 移動ロボット / ビジュアルフィードバック制御 / 自己位置推定 |
Outline of Annual Research Achievements |
視覚センサにより得られた画像情報から画像認識を行い、それに基づいてロボットを制御することで高度で多様な作業が実現できる。さらに複数の物理センサを融合することでより安全かつ適切な制御が可能になる。本研究では画像認識の不確かさを考慮した新しい制御法、視覚センサと物理センサを融合させた認識システムの構築を目的とする。 一般的なカメラでは視野が狭く画像認識の範囲が制限されるため、移動ロボットの適用範囲も限定的になる。そこで魚眼カメラや全天球カメラなどの超広角カメラを適用した。超広角カメラの画像歪特性を考慮した新しいビジュアルサーボ制御を構築し、移動ロボットの位置姿勢制御や複数台ロボットの隊列制御を実現した。つぎに環境変化や画像認識の不確かさに対応するための複数モデルの切り替えによる認識法について検討した。そこではロボットによる人物の多様な歩行運動の追従を考え、複数モデルによる人物追跡とロボットの制御を検討した。 最終年度では移動ロボットの自己位置推定法の実現を検討した。カメラの画像情報に基づいてロボットの自己位置推定で一連の画像列から特徴点のマッチング等により移動ロボットの位置や姿勢を推定することができる。しかしながら、画像のぼけや特徴の少ない環境では特徴点のマッチングができず、位置姿勢が推定できない場合がある。そこで本研究では画像情報と姿勢センサを用いた自己位置推定を実現した。ここでは取得した一連の画像情報とセンサ情報を融合した時系列データを構築し、それを畳み込みニューラルネットワーク(CNN)に適用し、学習させた。提案手法の有効性を実験により検証した。実験により提案手法は高い精度で自己位置推定を実現できることがわかった。また既存のVisual SLAMでは自己位置推定ができないようなシーンにおいても高精度な自己位置推定が可能であることがわかった。
|