実用に供するレベルの精度の高い機械学習モデルを作ることは必ずしも容易ではなく、開発者の熟練度によって出来上がるモデルの精度には大きな開きがある。本研究では説明可能AI(Explainable AI; XAI)の技術を基盤に、開発者により良いモデルの構築方法について適切にアドバイスする仕組み「説明駆動モデル開発」の研究に取り組んだ。 最終年度はモデルの部分的な可読化に基づくモデルの修正技術をさらに発展させ、モデルの多様な修正パターンを発見するパターンマイニング手法を開発した。従来の方法では一通りの修正パターンしか得られなかったのに対し、このパターンマイニング手法を用いることで、開発者は様々な修正パターンの中から適切なものを選択することが可能となった。これにより、より効果的なモデルの修正が可能となると期待できる。 また、モデルの判断の不確実性を修正する方法として、ユーザの意思決定を考慮した不確実性を推定手法を開発した。これは多くの機械学習モデルが不確実性を適切に推定できない点を改善するための方法であり、特にユーザがモデルの判断に基づいて意思決定を行う場合に効果的な方法である。 本プロジェクト全体を通じた研究の成果としては、モデルの性能を改善するためのデータクレンジング法およびそれを拡張した類似データ説明法、そしてモデルの部分的な可読化に基づくモデルの修正技術、そしてモデルの不確実性の修正技術などが得られた。
|