2021 Fiscal Year Annual Research Report
Development of computational methods for increasing reliability and safety of deep neural networks for medical imaging
Project/Area Number |
21H03545
|
Allocation Type | Single-year Grants |
Research Institution | Kyushu Institute of Technology |
Principal Investigator |
竹本 和広 九州工業大学, 大学院情報工学研究院, 教授 (40512356)
|
Project Period (FY) |
2021-04-01 – 2026-03-31
|
Keywords | 深層ニューラルネットワーク / 機械学習セキュリティ / ネットワーク科学 / 医用画像診断 |
Outline of Annual Research Achievements |
本研究課題は、複雑ネットワークの理論を応用することで、医用画像診断のために開発された深層ニューラルネットワーク(DNN)の信頼性評価や安全性向上のために、敵対的攻撃に対するDNNのロバスト性(信頼性)評価と安全性向上のための計算手法を開発し、安全で信頼できる医療AIの開発に貢献することを目的とする。本年度は以下のような実績をあげた。 訓練画像に目立たない指標(トリガー)を加えた汚染データを少量混ぜてDNNを訓練することで、そのDNNにバックドアを仕掛けるというバックドア攻撃の手法を用いて、胸部X線画像からCOVID-19性肺炎を検出するオープンソースのDNNであるCOVID-Netの敵対的攻撃に対する脆弱性について調査し、COVID-Netがバックドア攻撃について極めて脆弱であることを明らかにした(Matsuo and Takemoto 2021)。さらに、このバックドアが仕掛けられたCOVID-Netは追加の健全なデータで微調整した後もバックドアが有効であることがわかった。医療AIのオープンソース開発にはより一層の注意が必要であることがわかった。 敵対的攻撃に必要とされる訓練データセット(医療画像)はセキュリティやプライバシー保護の観点から一般に入手不可能であるため、そのような脆弱性は比較的問題にならないと考えられている。しかし、Minagi et al (2022)では、自然画像からの転移学習から得られた医療用DNNについては、医療画像を利用できない場合でも、自然画像を用いた敵対的攻撃が可能であることを示した。ランダム初期値からのモデル学習によって、この脆弱性は比較的回避できるが、完全に回避することはできなかった。転移学習の安易な利用はセキュリティ上の大きな脅威となることがわかった。
|
Current Status of Research Progress |
Current Status of Research Progress
2: Research has progressed on the whole more than it was originally planned.
Reason
手法の開発と医療用DNNへの応用が順調に進み、着実に研究成果をあげることができている。特に、COVID-Netのような企業が開発する医療用DNNの脆弱性評価(Matsuo and Takemoto 2021)についても行うことができており、社会貢献度が高い成果になったと考える。
|
Strategy for Future Research Activity |
次年度以降も、基本的には当初の研究実施計画通りに進める。特に、DNNのほとんどの分類を誤らせることができる「単一」の摂動である普遍的敵対的摂動(UAP)についてはホワイトボック型(DNNの重みや勾配にアクセスできる場合)のUAPの生成アルゴリズムの開発が完了して いる。より現実的な攻撃はブラックボックス(DNNの出力だけがわかる場合)であるので、そのような攻撃に対するDNNの信頼性評価を行うため に、ブラックボックス型に対応したUAPの生成アルゴリズムの開発を進める。
|
Research Products
(7 results)