本研究では「統一的な判断根拠提示法」の確立に向けて「入出力間の影響度の計算」及び「類似データ・重要データの提示」の研究に取り組んだ。そして、これら両者の側面を併せ持った説明法として、複雑な機械学習モデルを部分的に可読化する方法を提案した。 提案した説明法では、モデルの(部分的な)可読化により、出力に影響を及ぼす重要な特徴量を説明する事が可能となった。また、可読化にルールベースのモデルを用いることで、自然に類似データを提示することも可能となった。また、提案した説明法の特筆すべき点として、可読性の度合いをユーザの好みに応じて調整できる機能がある。従来の説明法は、「入出力間の影響度の計算」「類似データ・重要データの提示」のどちらにおいても、ユーザの好みとは無関係に常に画一的な説明を提供するものであった。これに対して、提案した説明法では可読性の度合いをユーザが自由に調整することで、多様な説明を提示できるようになっている。 本研究ではさらにこのような多様な説明を"最適化"するために、可読性と説明の精度とのトレードオフを定量化したArea Under Transparency-Accuracy Trade-off Curve (AUTAC)を提案した。AUTACが最大になるように多様な説明を最適化することで、異なるユーザが異なる可読性を要求しても常に精度の高い説明を提供できるようになる。 本研究の成果は2020年度開催の国際会議に採択された。そこで2020年度は国際会議へと参加し研究成果を発表し、また参加者と意見交換を行った。
|