研究課題
基盤研究(C)
人工知能の社会への応用が進むにつれ,人工知能の出力の根拠を説明することができる説明モデルのニーズが高まっている.多くの説明モデルでは人工知能の出力導出過程を演繹的に説明しようとするが,人工知能が複雑化するにつれて演繹的な説明は困難となっている.そこで本研究では帰納的な説明モデルを提案・実装する.これは他の入力に対する実績を当該入力に対する根拠とするような手法である.提案する説明モデルにより,人工知能の情報参照の妥当性や公正性などの評価ができるようになる.また,本研究では,帰納的な説明モデルを人間協調型人工知能の開発に応用する.