本研究課題は,福島第一原子力発電所の原子炉のような人間が直接入れない極限水中環境において,無人水中ロボットに搭載した音響カメラを使用し,物質・材料に関する環境情報を反映したマップ生成システムの構築を目的とする. 本研究では,環境中に存在するマテリアルの特性を音響カメラの計測情報より分析し,環境のマッピング処理における環境特徴量として活用することで,環境中に存在するマテリアルの情報を含む3次元形状情報(水中マテリアル分布マップ)を復元するアプローチを実施した. 2022年度には,セマンティックセグメンテーションによる音響カメラからの撮影表面の性質を分類するシステムを新たに構築し,水中音響カメラを用いた船底の劣化検出を実現したものの,2クラスの分類にとどまっていた.2023年度には,システムをさらに改良し,水中環境における6クラス以上(砂,岩,コンクリート,プラスチック,木材,ガラス,その他)の分類を実現した.具体的には,音響画像から入射角及び距離画像情報を推定し,入力データの次元を拡張する手法を新たに提案することで,DeepLab v3+等のセマンティックセグメンテーションモデルに基づくマテリアル分布の認識をより多様な環境に適用可能にした.また,八分木構造で3次元環境を表現するOctoMapに基づく確率的占有格子マッピング手法を採用し,認識した物質・材料に関する環境情報を反映した水中マテリアル分布マップの生成を実現した.
|