Project/Area Number |
23K11211
|
Research Category |
Grant-in-Aid for Scientific Research (C)
|
Allocation Type | Multi-year Fund |
Section | 一般 |
Review Section |
Basic Section 61030:Intelligent informatics-related
|
Research Institution | Hokkaido University |
Principal Investigator |
前田 圭介 北海道大学, データ駆動型融合研究創発拠点, 特任准教授 (20798243)
|
Project Period (FY) |
2023-04-01 – 2027-03-31
|
Project Status |
Granted (Fiscal Year 2023)
|
Budget Amount *help |
¥4,810,000 (Direct Cost: ¥3,700,000、Indirect Cost: ¥1,110,000)
Fiscal Year 2026: ¥780,000 (Direct Cost: ¥600,000、Indirect Cost: ¥180,000)
Fiscal Year 2025: ¥910,000 (Direct Cost: ¥700,000、Indirect Cost: ¥210,000)
Fiscal Year 2024: ¥1,170,000 (Direct Cost: ¥900,000、Indirect Cost: ¥270,000)
Fiscal Year 2023: ¥1,950,000 (Direct Cost: ¥1,500,000、Indirect Cost: ¥450,000)
|
Keywords | 深層学習 / 損傷検出 / XAI / 撮影方法 / 画像認識 / 注目領域 / 機械学習 / 異環境データ |
Outline of Research at the Start |
本研究課題では、インフラ維持管理の現場で撮影される損傷画像の認識精度向上のために、AIに入力される画像の撮影方法を最適化する異環境異種データ適応型AIの構築を目指す。これまで申請者が進めてきた「損傷画像中の注目領域を推定する説明可能なAI(XAI)」をインフラ点検中の技術者視点の映像(1人称映像)へ対応可能となるよう拡張することで、AIの実社会応用で生じる画像撮影方法の多様性の問題を解決可能な新たな理論を構築する。具体的に、1人称映像と損傷画像間の性質の差、点検環境の違い、損傷画像を撮影する技術者のノウハウの違いによって生じる問題を解決することで,AIの認識しやすい損傷画像が取得可能となる。
|
Outline of Annual Research Achievements |
本研究課題では、インフラ維持管理の現場で撮影される損傷画像の認識精度向上のために、AIに入力される画像の撮影方法を最適化する異環境異種データ適応型AIの構築を目指す。これまで申請者が進めてきた「損傷画像中の注目領域を推定する説明可能なAI(XAI)」をインフラ点検中の技術者視点の映像へ対応可能となるよう拡張することで、AIの実社会応用で生じる画像撮影方法の多様性の問題を解決可能な新たな理論を構築する。本理論構築に向けて、【フェーズ1】1人称映像と損傷画像の関係性を学習する異種データ対照学習理論の実現、【フェーズ2】附帯情報を導入した異環境適応型XAIの実現、【フェーズ3】技術者間のノウハウの共通性を転移可能なマルチビューグラフ埋め込み理論の構築、【フェーズ4】プロトタイプ版の構築と技術者からのフィードバックの反映の4つのフェーズに分けて実施する。 令和5年度では、【フェーズ1】の実現に向けて、損傷画像を用いて構築したAIにインフラ点検時に得られた映像を入力することで、異なる種類のデータであっても損傷を検出可能であるかを検証した。検証結果より、点検時に得られた映像から損傷を高精度に検出可能であることが明らかとなったことから、異種データ間の関係性を学習可能な理論の構築を実現した。さらに、本計画当初は技術者による現場点検を想定していたが、更なる省力化のためにはドローンの活用が期待されていることから、難易度の高いドローン映像へ適用し、研究を進めてきた。上記に関連する研究の成果が認められ、査読付き学術論文誌への採録、さらに映像情報メディア学会の特別講演に至っている。
|
Current Status of Research Progress |
Current Status of Research Progress
1: Research has progressed more than it was originally planned.
Reason
令和5年度では、【フェーズ1】1人称映像と損傷画像の関係性を学習する異種データ対照学習理論の実現が目標であった。「研究実績の概要」で述べた通り、1人称映像よりも省力化が期待されるドローン映像への適用に挑戦し、その関係性を学習可能であることを明らかにしている。その成果が認められ、研究開始初年度にもかかわらず学術論文の採択や学会発表に至っている。 さらに、令和6年度以降実施予定の【フェーズ2】【フェーズ3】について先行着手している。具体的に、【フェーズ2】の附帯情報を導入したXAIの実現に向けて、異種データを対象とした生成AIであるマルチモーダルモデルを用いた損傷認識技術を構築し、そして、【フェーズ3】のグラフ埋め込み理論構築に向けた基礎技術として、グラフ構造に対応した映像認識技術を実現している。これらの成果は査読付き学術論文誌への採択や査読付き国際会議での発表に至っている。 以上より、研究の更なる発展が期待されることから、「(1)当初の計画以上に進展している。」と判断した。
|
Strategy for Future Research Activity |
令和6年度以降では、「研究実績の概要」に記載した【フェーズ2】~【フェーズ4】を実施する。 【フェーズ2】では、附帯情報を導入した異環境適応型XAIの実現を目指す。具体的に、損傷個所の部位や部材、インフラの構造種別など、環境の違いを記載した附帯情報を用い、それらと点検時に得られる映像を協調的に用いることで、損傷認識XAIを構築する予定である。 【フェーズ3】では異なる技術者・ドローンが点検を実施する場合でも、統一的な点検を実施可能とするための理論を構築する。具体的に、技術者間のノウハウの共通性等を転移可能なマルチビューグラフ埋め込み理論の構築を行う予定である。 さらに、【フェーズ4】ではプロトタイプ版の構築と技術者からのフィードバックの反映を目指す。 以上の計画に則って、本研究を遂行する。
|