2021 Fiscal Year Final Research Report
Interpretation Support of Classification Rules by Text-based Deep Learning
Project/Area Number |
19K12124
|
Research Category |
Grant-in-Aid for Scientific Research (C)
|
Allocation Type | Multi-year Fund |
Section | 一般 |
Review Section |
Basic Section 61030:Intelligent informatics-related
|
Research Institution | The University of Shiga Prefecture |
Principal Investigator |
|
Co-Investigator(Kenkyū-buntansha) |
河原 吉伸 九州大学, マス・フォア・インダストリ研究所, 教授 (00514796)
西原 陽子 立命館大学, 情報理工学部, 教授 (70512101)
|
Project Period (FY) |
2019-04-01 – 2022-03-31
|
Keywords | 深層学習 / DNN / RNN / 学習結果の解釈 / 知識抽出 |
Outline of Final Research Achievements |
In this study, we aimed to construct an environment in which humans can interpret the meaning of learned classification patterns in text-based deep learning. That is, we constructed an interface that facilitates human interpretation of learning results from deep learning networks, DNNs (Deep Neural Networks) and RNNs (Recurrent Neural Networks) with recursive structures. The interface visualizes the learned networks and displays them with word labels. In an evaluation experiment, we asked subjects unfamiliar with deep learning to interpret the classification patterns of the learned text set displayed on the interface, and verified the validity of the interpretation.
|
Free Research Field |
知能情報学
|
Academic Significance and Societal Importance of the Research Achievements |
ブラックボックス問題と言われている深層学習の学習結果を解釈するための手がかりを提示するシステムを構築したこと.ならびに,単純な全結合のDNNだけでなく,再帰構造を含むRNNにより,時系列データの学習にも対応している点で学術的意義がある. また,深層学習で学習された知識が取り出せるようになることで,抽出した知識を人間が活用することや,コンピュータが対応できている点とできていない点を理解した上で,結果の根拠を利用できることは,結果を利用する際の納得感が異なると考えられる.また,抽出した知識を類似する他の分野に転用するなどの応用が可能となるため,社会的意義がある.
|