研究課題/領域番号 |
21H04906
|
研究機関 | 国立情報学研究所 |
研究代表者 |
山岸 順一 国立情報学研究所, コンテンツ科学研究系, 教授 (70709352)
|
研究分担者 |
Kruengkrai Canasai 国立情報学研究所, コンテンツ科学研究系, 特任助教 (10895907)
Wang Xin 国立情報学研究所, コンテンツ科学研究系, 特任助教 (60843141)
|
研究期間 (年度) |
2021-04-05 – 2025-03-31
|
キーワード | 機械学習 / ディープフェイク / ファクトチェック / 深層学習 |
研究実績の概要 |
本物に類似したフェイクメディアが機械学習により容易に生成でき、フェイクニュース等不正確な情報も氾濫するインフォデミック時代の今、適切な意思決定を支援すべく、次世代メディア解析技術を提案する。まずフェイクメディアの改ざん領域を同定し根拠として表示する生体検知手法を提案する。次に常に変化するメディア生成方法に対処するため、未知のフェイクメディア生成法の検知手法を提案する。更にファクトチェックを自動化した自動ファクトチェックの高度化に取り組む。
【課題1】我々は機械学習により生成されたフェイクメディアを見破る技術を開発してきた。これは入力メディアの真贋判定を行う識別技術であるが、真か偽かを予測するだけではなく、なぜ偽と判定したのか、そのエビデンスを人々が理解可能な方法で提示する必要がある。2022年度は改ざん可能性がある領域を、複数の時間解像度において同時推定する技術を提案した。また本研究成果を音声分野のトップジャーナル論文としてまとめることも行った。 【課題2】メディア生成技術は常に変化する。それ故未知手法によるフェイクメディアを検出しなければ、安定的な対応は望めない。そこでフェイクメディア識別モデルの学習用データベース自身を自動拡張する事で未知手法によるフェイクメディア検出を可能にする新たな枠組みを提案し、国際学会において発表した。またフェイクメディアデータを時間をかけずに効率的に生成する手法の検討も行なった。 【課題3】入力クレームの内容が正しいかどうかを自動判定する技術として自動ファクトチェックがある。根拠となる論文や情報源を自動検索、該当文章や段落を自動で選択、真偽を回答する技術である。2022年度も研究を進め、学習済みファクトチェックモデルに破壊的忘却を起こさずに、新しい情報源の知識を追加する技術を提案し、その成果を国際学会において発表した。
|
現在までの達成度 (区分) |
現在までの達成度 (区分)
1: 当初の計画以上に進展している
理由
課題1、課題2、課題3の全てにおいて研究成果を挙げ、その全てがトップカンファレンスもしくはトップジャーナルに掲載されている。
|
今後の研究の推進方策 |
2023年度も引き続き、本研究の3重要課題の研究に取り組む。
【課題1 説明可能な生体検知】2023年度は改ざん領域推定に関する評価指標を新たに提案する。さらに、改ざん可能性がある領域をグルーピング化する技術も提案する。 【課題2 未知フェイクメディアの検出】メディア生成技術は常に変化する。2023年度はフェイクメディアデータを人手で時間をかけて収集するのではなく、コストをかけずに擬似的に生成する方法をさらに掘り下げ、様々な条件下のフェイクメディアデータを容易に生成する枠組みを提案することを目指す。これにより頑健な識別モデルの実現を目指す。 【課題3 自動ファクトチェック】2023年度は、自動ファクトチェックモデルを人手やコストをかけずに多言語対応させる方法について検討する。具体的には多言語対応した事前学習済み言語モデルを導入し、日本語を含む複数の言語において自動ファクトチェックを実現する。
|