2016 Fiscal Year Annual Research Report
Functionally layered coding for visual odometry and its application to autonomous traveling camera
Project/Area Number |
26289117
|
Research Institution | Nagaoka University of Technology |
Principal Investigator |
岩橋 政宏 長岡技術科学大学, 工学(系)研究科(研究院), 教授 (30251854)
|
Co-Investigator(Kenkyū-buntansha) |
上村 靖司 長岡技術科学大学, 工学(系)研究科(研究院), 教授 (70224673)
木村 哲也 長岡技術科学大学, その他の研究科, 准教授 (70273802)
吉田 太一 長岡技術科学大学, 工学(系)研究科(研究院), 助教 (60737914)
|
Project Period (FY) |
2014-04-01 – 2017-03-31
|
Keywords | 画像 |
Outline of Annual Research Achievements |
危険個所を自律走行して周囲の状況を映像監視し、通信ネットワークを介して連携できるクローラ型ロボット群が、防災上必要とされている。特にレスキュー現場では、事前の環境情報もなく整備された通信インフラもない。本研究では、自律走行クローラへの応用を目的として、申請者らの研究成果である多方向・多色照明に基づく「映像オドメトリ」を、高ダイナミックレンジ・超高速映像に展開することで、雪や煙など視界不良時での高精度な自己位置推定を実現した。 更に、ネットワーク連携にはデータ通信量の削減が必須である。汎用的な国際標準方式は視覚特性を考慮しているが、ロボット間通信には適合しない。申請者らの研究成果である「機能的階層符号化」をより深化させ、自己位置推定と監視機能の同時最適化手法を確立した。 ロボットの自律走行には環境情報の取得が必要となる。従来技術としてGPS (Global Positioning System) が挙げられるが、高精度な位置決めには他の手段との連動を要する。例えば、走行距離は車輪の回転数から逆算できるがスリップ時には精度が低下する。一方、ロボットの「目」から得られる映像から自己位置を推定する方法は、映像オドメトリとして知られており、高精度な推定が可能となる。しかし、映像中の特徴的な模様に依存するため、雪、煙、霧といった視界不良時には精度が著しく低下する。申請者らはこの問題を、多方向・多照明に基づく高耐性・映像オドメトリにより解決してるが、本課題では更に、High Dynamic Range (HDR) 映像へ拡張することで堅牢で高精度な自己位置推定を実現した。
|
Research Progress Status |
28年度が最終年度であるため、記入しない。
|
Strategy for Future Research Activity |
28年度が最終年度であるため、記入しない。
|
Causes of Carryover |
28年度が最終年度であるため、記入しない。
|
Expenditure Plan for Carryover Budget |
28年度が最終年度であるため、記入しない。
|
Research Products
(10 results)