Development of Perturbation Robust and Interpretable Deep Learning Models and Evaluation of Their Interpretability
Project/Area Number |
21J14143
|
Research Category |
Grant-in-Aid for JSPS Fellows
|
Allocation Type | Single-year Grants |
Section | 国内 |
Review Section |
Basic Section 61030:Intelligent informatics-related
|
Research Institution | Hosei University |
Principal Investigator |
北田 俊輔 法政大学, 理工学研究科, 特別研究員(DC2)
|
Project Period (FY) |
2021-04-28 – 2023-03-31
|
Project Status |
Completed (Fiscal Year 2022)
|
Budget Amount *help |
¥1,500,000 (Direct Cost: ¥1,500,000)
Fiscal Year 2022: ¥700,000 (Direct Cost: ¥700,000)
Fiscal Year 2021: ¥800,000 (Direct Cost: ¥800,000)
|
Keywords | 人工知能 / 深層学習 / 自然言語処理 / 解釈可能性 / 注意機構 / 敵対的摂動 |
Outline of Research at the Start |
人工知能技術の核を成している深層学習は、従来の古典的な手法と比べてタスクに対する予測性能が非常に高い反面、具体的な予測の過程を解釈しづらい問題がある。深層学習モデルの予測を解釈する上で注意機構の重みを利用した方法が盛んに研究されているが、この機構は微小なノイズや摂動に脆弱であることが知られている。本研究では敵対的学習と呼ばれる、モデルをあえて騙すような摂動を付加する学習法に着目し、これを注意機構に応用することで摂動に頑健で解釈性の高い予測の根拠を提示可能な深層学習モデルの確立を目的とする。更に注意機構の重みを利用した予測の解釈法が提示する根拠に対する評価指標を確立し、モデルの解釈性を評価する。
|
Outline of Annual Research Achievements |
本研究では、解釈性の高い予測の根拠を提示可能な深層学習モデルの予測精度向上を目的とし、以下2項目に焦点を当てて研究を行う: (1) 摂動に頑健で解釈可能な深層学習モデルの確立、(2) 予測の解釈手法が提示する根拠に対する評価指標の確立。2022年度は後者について研究を実施した。学習済みモデルの注意の重みに対して、これまで解釈性の評価に使われてこなかった既存の指標や、人手のアノテーションを利用した新たな指標を元に、予測根拠に対する評価指標の確立を模索した。このとき、解答根拠が人手によって付与された既存のオープンデータセットの利用のほか、クラウドソーシングの利用を検討した。深層学習モデルが提示する根拠に対して、勾配とアノテーション一致率や認知心理学的アプローチを参考に、その妥当性について検証した。さらに近年頻繁に利用されている既存手法や提案手法によって学習された注意の重みが、人間の解釈と近いものであるかを調査した。
|
Research Progress Status |
令和4年度が最終年度であるため、記入しない。
|
Strategy for Future Research Activity |
令和4年度が最終年度であるため、記入しない。
|
Report
(2 results)
Research Products
(13 results)