ヒューマンコンピュテーションの枠組みにおいては、機械学習などの計算機による情報処理の結果について、その理由を人間の側が正しく理解できることが重要となる。知識グラフを用いた説明は、これまでにも推薦システムなどを対象に採用されてきた。その際に、グラフ上の最短経路を説明として用いる方法が一般的であったが、対象となるアイテム間に経路が存在せずに説明が生成できない場合や、経路が長すぎて説明の解釈性が低下する場合があるといった課題があった。本研究課題では、これまでに提案した知識グラフとランダムウォークを用いる推薦においては、全てのアイテム間にテレポートよる正の遷移確率が存在することを利用し、到達確率の最も高い経路を探索により発見し、それを説明として用いることで、従来手法の課題を解決した。また、特徴量の2次の交互作用に基づく機械学習による予測モデルであるFactorization Machineにおいて、モデルの解釈性を向上するために、従来の特徴レベルのスパース性を達成する特徴選択ではなく、交互作用レベルのスパース性を達成できる正則化スキームを提案し、人工データおよび推薦システムなどの実データにおいて有効性を確認した。さらに、深層学習を用いたマルチモーダルフェイクニュース検出における説明性・解釈性を改善するために、画像とテキストのペアに加えてDBpediaから得た外部知識を活用するモデルを提案した。Fakedditデータセットにおける評価実験において、深層学習による判断根拠の可視化と外部知識の提示により、説明性・解釈性の向上が期待できることを確認した。
|