Interpretation Support of Classification Rules by Text-based Deep Learning
Project/Area Number |
19K12124
|
Research Category |
Grant-in-Aid for Scientific Research (C)
|
Allocation Type | Multi-year Fund |
Section | 一般 |
Review Section |
Basic Section 61030:Intelligent informatics-related
|
Research Institution | The University of Shiga Prefecture |
Principal Investigator |
|
Co-Investigator(Kenkyū-buntansha) |
河原 吉伸 九州大学, マス・フォア・インダストリ研究所, 教授 (00514796)
西原 陽子 立命館大学, 情報理工学部, 教授 (70512101)
|
Project Period (FY) |
2019-04-01 – 2022-03-31
|
Project Status |
Completed (Fiscal Year 2021)
|
Budget Amount *help |
¥4,420,000 (Direct Cost: ¥3,400,000、Indirect Cost: ¥1,020,000)
Fiscal Year 2021: ¥910,000 (Direct Cost: ¥700,000、Indirect Cost: ¥210,000)
Fiscal Year 2020: ¥1,560,000 (Direct Cost: ¥1,200,000、Indirect Cost: ¥360,000)
Fiscal Year 2019: ¥1,950,000 (Direct Cost: ¥1,500,000、Indirect Cost: ¥450,000)
|
Keywords | 深層学習 / DNN / RNN / 学習結果の解釈 / 知識抽出 / パターン抽出 / 解釈支援 / データサイエンス / テキストマイニング / テキスト分類 / 深層学習における分類基準の解釈 / 解釈性 / 知識共有 |
Outline of Research at the Start |
本研究では、「深層学習で学習された分類基準は何か?」との問いに答えられる、学習された分類パターンの意味を、人間が解釈できる環境を構築する。この意味づけが可能になれば、学習された分類パターンの意味を人間が知識として活用することができ、深層学習を含むシステムの効果的な運用方法を検討できる。
また、分類パターンの意味づけ支援として、入力テキストに、「どのような単語の組合せ、あるいは単語の出現順序が含まれていれば、どの分類先に分類されるか」の分類パターン候補を提示する仕組みを検討する。その上で、分類パターン候補の吟味、ならびに適用ドメインにおける分類パターンの意味解釈を支援するインタフェースを構築する。
|
Outline of Final Research Achievements |
In this study, we aimed to construct an environment in which humans can interpret the meaning of learned classification patterns in text-based deep learning. That is, we constructed an interface that facilitates human interpretation of learning results from deep learning networks, DNNs (Deep Neural Networks) and RNNs (Recurrent Neural Networks) with recursive structures. The interface visualizes the learned networks and displays them with word labels. In an evaluation experiment, we asked subjects unfamiliar with deep learning to interpret the classification patterns of the learned text set displayed on the interface, and verified the validity of the interpretation.
|
Academic Significance and Societal Importance of the Research Achievements |
ブラックボックス問題と言われている深層学習の学習結果を解釈するための手がかりを提示するシステムを構築したこと.ならびに,単純な全結合のDNNだけでなく,再帰構造を含むRNNにより,時系列データの学習にも対応している点で学術的意義がある. また,深層学習で学習された知識が取り出せるようになることで,抽出した知識を人間が活用することや,コンピュータが対応できている点とできていない点を理解した上で,結果の根拠を利用できることは,結果を利用する際の納得感が異なると考えられる.また,抽出した知識を類似する他の分野に転用するなどの応用が可能となるため,社会的意義がある.
|
Report
(4 results)
Research Products
(16 results)