研究課題
基盤研究(B)
深層ニューラルネットワーク(DNN)の振舞はブラックボックス的であり,説明可能AIが重要との指摘がなされている.本研究は,画像を入力とするDNNの説明可能性を向上するための可視化手法を研究する.特に,DNNへの入力画像,計算過程,出力結果の間の関与度を計算したうえで,得られた関与度の特徴(意味)を明らかにする特徴可視化を主な研究対象とする.本研究では敵対的生成ネットワーク(GAN)の利用によって,特徴可視化を自然でヒトに理解しやすいものとすることを目指す.具体的には,写実的な特徴可視化,非写実的な特徴可視化,ヒト視覚との比較などについて研究を進める.