研究課題
基盤研究(C)
入力に微小な摂動が加えられた敵対的事例(AE)により深層ニューラルネットワーク(DNN)が誤認識を起こしてしまう脆弱性の問題は,自己注意機構を採用する近年の基盤モデルにおいても確認されており,AEからDNNを保護する敵対的防御の重要性が増している.AEを検出するのみでは,自動運転における標識認識のように安全を保てない分野があることから,本研究では,AEに対して再攻撃を行うことで,AEから正しい推論結果を導出する矯正方式を提案する.本方式が画像,言語等のモダリティを問わずに適用でき,事前訓練やパラメータ調整が不要であることを示す.