• 研究課題をさがす
  • 研究者をさがす
  • KAKENの使い方
  1. 前のページに戻る

深層学習モデルの判断根拠提示のための統一的方法の開発

研究課題

研究課題/領域番号 18K18106
研究種目

若手研究

配分区分基金
審査区分 小区分61030:知能情報学関連
研究機関大阪大学

研究代表者

原 聡  大阪大学, 産業科学研究所, 准教授 (40780721)

研究期間 (年度) 2018-04-01 – 2021-03-31
研究課題ステータス 完了 (2020年度)
配分額 *注記
4,160千円 (直接経費: 3,200千円、間接経費: 960千円)
2019年度: 1,820千円 (直接経費: 1,400千円、間接経費: 420千円)
2018年度: 2,340千円 (直接経費: 1,800千円、間接経費: 540千円)
キーワード機械学習 / 深層学習 / 説明可能AI / 解釈性 / 人工知能
研究成果の概要

深層学習モデルは一般にとても複雑な構造をしており、モデルの判断根拠をユーザが窺い知ることは困難である。そのため、深層学習モデルの判断根拠を説明するための「説明法」の研究が必要となる。本研究では「統一的な判断根拠提示法」の確立に向けて「入出力間の影響度の計算」及び「類似データ・重要データの提示」の研究に取り組んだ。本研究ではこれら個別の説明法をさらに発展させるとともに、これら両者の側面を併せ持った説明法を開発した。

研究成果の学術的意義や社会的意義

深層学習モデルは高い予測・認識精度を誇る一方で、一般にとても複雑な構造をしており、モデルの判断根拠をユーザが窺い知ることは困難である。このため、深層学習モデルは一般に”ブラックボックス”とされる。”ブラックボックス”性のために深層学習モデルをそのまま人間の重要な意思決定の補助(e.g ローン審査や医療診断など)に用いることは困難である。本研究で開発した説明法はこのような深層学習モデルの”ブラックボックス”性を緩和することができる。これにより、ユーザは高精度な深層学習モデルを、その判断根拠を窺いながら意思決定補助に用いることができるようになる。

報告書

(4件)
  • 2020 実績報告書   研究成果報告書 ( PDF )
  • 2019 実施状況報告書
  • 2018 実施状況報告書
  • 研究成果

    (13件)

すべて 2020 2019 2018 その他

すべて 国際共同研究 (5件) 学会発表 (6件) (うち国際学会 6件) 備考 (2件)

  • [国際共同研究] Universite du Quebec a Montreal(カナダ)

    • 関連する報告書
      2020 実績報告書
  • [国際共同研究] University of Iowa(米国)

    • 関連する報告書
      2020 実績報告書
  • [国際共同研究] Universite du Quebec a Montreal(カナダ)

    • 関連する報告書
      2019 実施状況報告書
  • [国際共同研究] University of Iowa(米国)

    • 関連する報告書
      2019 実施状況報告書
  • [国際共同研究] Universite du Quebec a Montreal(カナダ)

    • 関連する報告書
      2018 実施状況報告書
  • [学会発表] Interpretable Companions for Black-Box Models2020

    • 著者名/発表者名
      Danqing Pan, Tong Wang, Satoshi Hara
    • 学会等名
      The 23rd International Conference on Artificial Intelligence and Statistics
    • 関連する報告書
      2020 実績報告書
    • 国際学会
  • [学会発表] Faking Fairness via Stealthily Biased Sampling.2020

    • 著者名/発表者名
      Kazuto Fukuchi, Satoshi Hara, Takanori Maehara
    • 学会等名
      34th AAAI Conference on Artificial Intelligence
    • 関連する報告書
      2019 実施状況報告書
    • 国際学会
  • [学会発表] Fairwashing: the risk of rationalization2019

    • 著者名/発表者名
      Ulrich Aivodji, Hiromi Arai, Olivier Fortineau, Sebastien Gambs, Satoshi Hara, Alain Tapp
    • 学会等名
      36th International Conference on Machine Learning
    • 関連する報告書
      2019 実施状況報告書
    • 国際学会
  • [学会発表] Convex Hull Approximation of Nearly Optimal Lasso Solutions2019

    • 著者名/発表者名
      Satoshi Hara, Takanori Maehara
    • 学会等名
      16th Pacific Rim International Conference on Artificial Intelligence
    • 関連する報告書
      2019 実施状況報告書
    • 国際学会
  • [学会発表] Data Cleansing for Models Trained with SGD2019

    • 著者名/発表者名
      Satoshi Hara, Atsuhi Nitanda, Takanori Maehara
    • 学会等名
      Neural Information Processing Systems
    • 関連する報告書
      2019 実施状況報告書
    • 国際学会
  • [学会発表] Maximally Invariant Data Perturbation as Explanation2018

    • 著者名/発表者名
      Satoshi Hara, Kouichi Ikeno, Tasuku Soma, Takanori Maehara
    • 学会等名
      2018 ICML Workshop on Human Interpretability in Machine Learning
    • 関連する報告書
      2018 実施状況報告書
    • 国際学会
  • [備考] Interpretable Companions for Black-Box Models

    • URL

      https://arxiv.org/abs/2002.03494

    • 関連する報告書
      2019 実施状況報告書
  • [備考] Fairwashing: the risk of rationalization

    • URL

      https://arxiv.org/abs/1901.09749

    • 関連する報告書
      2018 実施状況報告書

URL: 

公開日: 2018-04-23   更新日: 2022-01-27  

サービス概要 検索マニュアル よくある質問 お知らせ 利用規程 科研費による研究の帰属

Powered by NII kakenhi