近年、深層学習をはじめとする機械学習技術が注目され導入が進められつつあるが、なぜそのような結果が得られたかの説明・解釈性が強く求められている。本研究では、予測器の入力と出力の関係に注目してブラックボックス的な機械学習結果を解釈する手法を開発する。開発手法では、経済学の分野で用いられている「複数人が協同した場合の利益の公平分配方法であるシャプレー値」を応用することで、数千にもおよぶ各説明変数が出力に及ぼす影響を線形和の形で適切に分離し、線形モデル等を前提として構築されている仮説検定や信頼区間といった統計学的な解釈手法をブラックボックスモデルに適用できるようにすることを目的とする。 本年度は、提案手法の実証的な評価を行った。まず、さまざまな既存の機械学習モデルの説明に提案手法を適用した。昨年度までに、各説明変数のシャプレー値の分散(標準偏差)が大きい順に、説明変数を選択していくことで、使用できる説明変数の数が制限された場合における説明性を最大化できることを証明したが、実際の実験によっても既存手法と比べて説明性に優れていることが分かった。またその際、説明性の向上は既存手法と比べて大きくはなかったが、理論的な裏付けのなかった既存手法に、最適解と同程度の説明性が備わっていることが実証的に示せた。 さらに、説明性が特に要求される医療分野に提案手法を適用した。せん妄予測に、提案手法を適用することで、せん妄の発生とせん妄後の自己抜管には異なる因子が存在することが可視化された。虚血性心疾患の予後予測において、低体重がリスク要因であることや、これまでの予後スコアでは使われていなかったDダイマーや、C反応性タンパク質、フィブリノーゲンなど検査結果が有用であることが示された。
|