危険個所を自律走行して周囲の状況を映像監視し、通信ネットワークを介して連携できるクローラ型ロボット群が必要とされている。レスキュー現場では事前の環境情報もなく整備された通信インフラもない。本研究では、多方向・多色照明に基づく映像オドメトリを高ダイナミックレンジ・超高速映像に展開することで、雪や煙など視界不良時での自律走行に応用するための高精度な自己位置推定を実現した。更に、ネットワーク連携にはデータ通信量の削減が必須である。本研究では、機能的階層符号化をより深化させ、自己位置推定と監視機能の同時最適化手法を確立した。
|