深層学習モデルは高い予測・認識精度を誇る一方で、一般にとても複雑な構造をしており、モデルの判断根拠をユーザが窺い知ることは困難である。このため、深層学習モデルは一般に”ブラックボックス”とされる。”ブラックボックス”性のために深層学習モデルをそのまま人間の重要な意思決定の補助(e.g ローン審査や医療診断など)に用いることは困難である。本研究で開発した説明法はこのような深層学習モデルの”ブラックボックス”性を緩和することができる。これにより、ユーザは高精度な深層学習モデルを、その判断根拠を窺いながら意思決定補助に用いることができるようになる。
|