研究課題/領域番号 |
20K11938
|
研究種目 |
基盤研究(C)
|
配分区分 | 基金 |
応募区分 | 一般 |
審査区分 |
小区分61030:知能情報学関連
|
研究機関 | 熊本大学 |
研究代表者 |
野原 康伸 熊本大学, 大学院先端科学研究部(工), 准教授 (30624829)
|
研究分担者 |
松本 晃太郎 久留米大学, 付置研究所, 講師 (60932217)
|
研究期間 (年度) |
2020-04-01 – 2024-03-31
|
研究課題ステータス |
完了 (2023年度)
|
配分額 *注記 |
4,160千円 (直接経費: 3,200千円、間接経費: 960千円)
2023年度: 910千円 (直接経費: 700千円、間接経費: 210千円)
2022年度: 910千円 (直接経費: 700千円、間接経費: 210千円)
2021年度: 910千円 (直接経費: 700千円、間接経費: 210千円)
2020年度: 1,430千円 (直接経費: 1,100千円、間接経費: 330千円)
|
キーワード | 機械学習 / 解釈手法 / シャプレー値 / 説明性の定量化 / 変数重要度 / 統計的仮説検定法 / 階層モデル |
研究開始時の研究の概要 |
近年、深層学習をはじめとする機械学習技術が注目され導入が進められつつあるが、なぜそのような結果が得られたかの説明・解釈性が強く求められている。本研究では、予測器の入力と出力の関係に注目してブラックボックス的な機械学習結果を解釈する手法を開発する。 開発手法では、経済学の分野で用いられている「複数人が協同した場合の利益の公平分配方法であるシャプレー値」を応用することで、数千にもおよぶ各説明変数が出力に及ぼす影響を線形和の形で適切に分離し、線形モデル等を前提として構築されている仮説検定や信頼区間といった統計学的な解釈手法をブラックボックスモデルに適用できるようにする。
|
研究成果の概要 |
近年、深層学習をはじめとする機械学習技術が注目され導入が進められつつあるが、なぜそのような結果が得られたかの説明・解釈性が強く求められている。本研究では、経済学の分野で用いられている「複数人が協同した場合の利益の公平分配方法であるシャプレー値」を応用して機械学習モデルの解釈手法を改善する研究である。まず、モデルをどれだけ正確に解釈できたかという説明性を定量的に評価する手法を提案した。そして、説明変数同士の相関がない場合においては、各説明変数のシャプレー値の分散が大きい順に、説明変数を選択していくことで、使用できる説明変数の数が制限された場合における説明性を最大化できることを理論的に証明した。
|
研究成果の学術的意義や社会的意義 |
既存の機械学習の解釈手法において、どの説明変数が重要であるかを表す指標である変数重要度は、経験的に使われてきたものであり、理論的な裏付けはなかった。本研究では、モデルをどれだけ正確に解釈できたかという説明性を定量的に評価する手法を提案し、その説明性を最大化するという理論的な裏付けがある手法を提案した点に大きな学術的意義を有する。 近年、機械学習は様々な分野で用いられようとしている。特に、病気の診断や自動運転等、間違いが重大な結果をもたらす分野において、機械学習がなぜそのような結果を出力したかを説明することは重要である。機械学習を広く社会へ適用するにあたって、本研究の社会的意義は大きい。
|