2022 Fiscal Year Annual Research Report
機械学習に適した損傷分類ルールの構築と建物被災度評価の自動化手法の開発
Project/Area Number |
21H01579
|
Research Institution | Tokoha University |
Principal Investigator |
田中 聡 常葉大学, 大学院・環境防災研究科, 教授 (90273523)
|
Co-Investigator(Kenkyū-buntansha) |
重川 希志依 常葉大学, 社会環境学部, 名誉教授 (10329576)
松岡 昌志 東京工業大学, 環境・社会理工学院, 教授 (80242311)
鱒沢 曜 明星大学, 建築学部, 准教授 (90533141)
|
Project Period (FY) |
2021-04-01 – 2024-03-31
|
Keywords | 深層学習 / インスタンス・セグメンテーション / 建物被害判定 / スマート・インスペクション |
Outline of Annual Research Achievements |
本研究では、建物被害評価に深層学習技術を取り入れ、自動化を実現しようとするものである。これまで深層学習による建物被害判別では、学習させる被害写真の枚数が少ないという問題があり、多クラス分類では良好な判別精度が得られなかった。そこで本研究では、まず学習する写真データの増量をめざした。 収集した損傷写真データは、対象とカメラとの距離が一定でなく、同じ損傷程度の写真であっても、近づいて画面いっぱい損傷がある写真と、ある程度距離をとった損傷写真がある。このようなデータをそのまま学習させると、機械学習では前者の方が損傷が大きいと判断されてしまう。 そこで対象とカメラの距離が一定である損傷写真を選定し学習させた。具体的には写真の上下が建物の階高と同じになっている写真を選定し、教師データとした。このような写真では、一枚の写真に複数の損傷が存在することになる。そこで、深層学習の解析技術を画像分類から損傷箇所を定量的に評価できるインスタンス・セグメンテーションに変更した。1枚の損傷写真に複数の損傷箇所に損傷セグメンテーションを設定し、それぞれに損傷程度の情報を付与した。今年度は、外壁、内壁についてデータを作成した。使用した写真は、それぞれ860枚、311枚であり、作成したラベル数は、それぞれ4381カ所、579カ所である。解析モデルはYolo v8を採用した。 学習では、IoUを0.1から0.5の範囲で調整し、さらにパラ-メータをチューニングした。精度検証の結果、外壁のmAP50は0.43、mAP20は0.55であった。一方内壁については、mAP50は0.32、mAP20は0.47であった。外壁においては損傷箇所の見落としや誤班別が存在するため、これらを減らすための工夫が必要となる.一方内壁については,学習データを増やすことにより,精度が向上すると考えられる。
|
Current Status of Research Progress |
Current Status of Research Progress
2: Research has progressed on the whole more than it was originally planned.
Reason
昨年度は、被害写真の画像分類をするために、被害写真から損傷部分を切り出し、教師データとしたが、程度の大きな損傷も小さな損傷も画面いっぱいに存在するため、誤判定が多く発生した。 そこで今年度は、対象とカメラとの距離感を整理し、学習データの距離感を統一した。特に画面いっぱいに損傷部分が拡大撮影されている写真はのぞき、画面の上下が建物の階高とほぼ同じになるように写真を調整した。この変更によって、一枚の被害写真に複数の損傷が存在することになるとともに、樹木や外構など建物以外のオブジェクトが映り込んでいるため、解析技術を画像分類からインスタンス・セグメンテーションに変更し、損傷部分の形状をこまかく囲んだマスク画像を作成し、教師データとした。今年度は、外壁、内壁についてデータを作成した。使用した写真は、それぞれ860枚、311枚であり、解析モデルはYolo v8を採用した。 学習では、IoUを0.1から0.5の範囲で調整し、さらにパラ-メータをチューニングした。精度検証の結果、外壁のmAP50は0.43、mAP20は0.55であった。一方内壁については、mAP50は0.32、mAP20は0.47であった。 さらにこのモデルをスマート・インスペクションシステムに搭載して、実際の建物でその性能や特性を検証した。学習モデルがクラウド上にあるため、通信環境によっては、判別結果を得るまでに20-30秒かかることもあるが、使用感はおおむね良好であった。
|
Strategy for Future Research Activity |
今年度は、画像分類からインスタンス・セグメンテーションに変更し、損傷箇所の指定がより詳細になったため、深層学習による判別精度は向上したが、実用に資する精度には至っていない。この原因として、程度が異なる損傷が一つながりになっている場合、どこまでを一つの損傷とするか定義がなく、その判断がデータ作成者によってばらつくことがある。この問題は、実際の被害調査現場で調査員が直面する課題でもあるため、これら調査員がどのように判断しているのか、調査する必要がある。 そこで次年度では、まず自治体調査員が損傷の範囲と程度をどのように判断しているのかの調査を実施する。この調査によって、調査員の判断の傾向やばらつきを分析し、その結果に基づいて、学習データを再度作成する。調査結果によっては、インスタンス・セグメンテーションではなく、物体検出の解析手法を用いることも検討する。 さらに、実用化する調査システムとして、これまで開発してきたスマート・インスペクションシステムを採用し、開発した被害評価モデルと統合する。次年度は本年度に引き続き、Android版のスマート・インスペクションシステムを開発する。
|