研究課題
機械学習を用いた悪性ドメイン名検知システムのホワイトボックス化、すなわち「検知結果の解釈性」の向上を実現するために、今年度は以下の研究を行った。(1)サイバー空間における様々な悪性活動を機械学習で構築した識別モデルで検知する手法が多数検討されている。しかし、どのような識別モデルであっても誤検知や見逃しはつきものであり、人間による検証が欠かせない。これを補助する手法に、識別結果の判断根拠を提示する説明可能AI(eXplainable AI: XAI)がある。しかし、検証の対象となる識別結果の件数が膨大である場合、全件についてXAIの出力を確認するのは現実的ではない。また、XAIの出力を解釈すること自体が難しい場合もある。そこで今年度の研究では、XAIの出力を特徴量として用いることで識別結果を検証し、信頼性に疑義がある場合には異議を唱える機械学習モデル(異議判定モデル)を提案した。悪性サイト検知とマルウェア検知に関する実験の結果、異議判定モデルを用いることで、誤識別された悪性活動を効率的に特定できることがわかった。(2)機械学習を用いた予測モデルの解釈性を確保することは、ユーザーの信頼を得るために重要である。解釈性を確保するための代表的なXAIのアルゴリズムであるLIMEやSHAPは、与えられた予測モデルの出力を、入力データに対する摂動に基づいて説明する。今年度の研究では、この摂動を無効化し、予測の理由を隠蔽するためのマスカレード層を提案した。このマスカレード層は、あらゆる予測モデルに取り付けることが可能である。また、予測モデル自体を変更することなく取り付けることができるため、予測モデルの挙動をほとんど変えずに、XAIによる説明内容を操作できる。実験結果から、既存の代表的な摂動に基づくXAIのアルゴリズムには、その信頼性の点で決定的な弱点があることが示された。
2: おおむね順調に進展している
今年度は、インターネット上で行われる悪性活動を機械学習を用いて検知した際の解釈性を高める手法について検討した。特に、誤検知や見逃しを特定するために必要となるセキュリティアナリストの労力を軽減するために、XAIの出力を特徴量として利用する異議判定モデルを提案し、その有効性を確認した。また、機械学習を用いた予測モデルの解釈性に対する信頼性を損なわせる手法が存在することを明らかにした。これにより、機械学習を用いた悪性ドメイン名検知システムのホワイトボックス化、すなわち「検知結果の解釈性」の向上を実現するための基礎となる知見や技術が着実に蓄積されつつある。なお、今年度の検討結果については、雑誌論文3件、学会論文5件(国内学会:2件、国際学会:3件)として発表した。
これまでの研究成果を踏まえ、機械学習を用いた悪性ドメイン名検知システムのホワイトボックス化、すなわち「検知結果の解釈性」のさらなる向上を目指す。検知結果の解釈性を確保するための前提となる、識別モデルや説明モデルの信頼性(あるいは脆弱性)についての検討を行う。得られた成果については、順次、対外発表を行う。
新型コロナウィルス感染症の流行に伴い、出張を予定していた学会がオンライン開催へと変更されたため、出張のための旅費が不要となった。これにより、次年度使用額が生じた。この金額については、翌年度以降の出張旅費、あるいは、研究に必要となる物品費や人件費・謝金、その他として使用する。
すべて 2021 その他
すべて 雑誌論文 (3件) (うち査読あり 3件) 学会発表 (5件) (うち国際学会 3件、 招待講演 1件) 備考 (1件)
IEICE Transactions on Communications
巻: Vol.E104-B, No.7 ページ: 770-780
10.1587/transcom.2020CQP0007
Springer Nature Computer Science
巻: Vol.4, Issue 4 ページ: 288
10.1007/s42979-021-00681-x
Journal of Information Processing
巻: Vol.29 ページ: 801-811
10.2197/ipsjjip.29.801
https://uchida-lab.jp/