研究課題/領域番号 |
18K18106
|
研究種目 |
若手研究
|
配分区分 | 基金 |
審査区分 |
小区分61030:知能情報学関連
|
研究機関 | 大阪大学 |
研究代表者 |
原 聡 大阪大学, 産業科学研究所, 准教授 (40780721)
|
研究期間 (年度) |
2018-04-01 – 2021-03-31
|
研究課題ステータス |
完了 (2020年度)
|
配分額 *注記 |
4,160千円 (直接経費: 3,200千円、間接経費: 960千円)
2019年度: 1,820千円 (直接経費: 1,400千円、間接経費: 420千円)
2018年度: 2,340千円 (直接経費: 1,800千円、間接経費: 540千円)
|
キーワード | 機械学習 / 深層学習 / 説明可能AI / 解釈性 / 人工知能 |
研究成果の概要 |
深層学習モデルは一般にとても複雑な構造をしており、モデルの判断根拠をユーザが窺い知ることは困難である。そのため、深層学習モデルの判断根拠を説明するための「説明法」の研究が必要となる。本研究では「統一的な判断根拠提示法」の確立に向けて「入出力間の影響度の計算」及び「類似データ・重要データの提示」の研究に取り組んだ。本研究ではこれら個別の説明法をさらに発展させるとともに、これら両者の側面を併せ持った説明法を開発した。
|
研究成果の学術的意義や社会的意義 |
深層学習モデルは高い予測・認識精度を誇る一方で、一般にとても複雑な構造をしており、モデルの判断根拠をユーザが窺い知ることは困難である。このため、深層学習モデルは一般に”ブラックボックス”とされる。”ブラックボックス”性のために深層学習モデルをそのまま人間の重要な意思決定の補助(e.g ローン審査や医療診断など)に用いることは困難である。本研究で開発した説明法はこのような深層学習モデルの”ブラックボックス”性を緩和することができる。これにより、ユーザは高精度な深層学習モデルを、その判断根拠を窺いながら意思決定補助に用いることができるようになる。
|