Project/Area Number |
21H04906
|
Research Category |
Grant-in-Aid for Scientific Research (A)
|
Allocation Type | Single-year Grants |
Section | 一般 |
Review Section |
Medium-sized Section 61:Human informatics and related fields
|
Research Institution | National Institute of Informatics |
Principal Investigator |
山岸 順一 国立情報学研究所, コンテンツ科学研究系, 教授 (70709352)
|
Co-Investigator(Kenkyū-buntansha) |
Wang Xin 国立情報学研究所, コンテンツ科学研究系, 特任准教授 (60843141)
Kruengkrai Canasai 国立情報学研究所, コンテンツ科学研究系, 特任助教 (10895907)
|
Project Period (FY) |
2021-04-05 – 2025-03-31
|
Project Status |
Granted (Fiscal Year 2024)
|
Budget Amount *help |
¥41,990,000 (Direct Cost: ¥32,300,000、Indirect Cost: ¥9,690,000)
Fiscal Year 2024: ¥8,840,000 (Direct Cost: ¥6,800,000、Indirect Cost: ¥2,040,000)
Fiscal Year 2023: ¥9,750,000 (Direct Cost: ¥7,500,000、Indirect Cost: ¥2,250,000)
Fiscal Year 2022: ¥10,400,000 (Direct Cost: ¥8,000,000、Indirect Cost: ¥2,400,000)
Fiscal Year 2021: ¥13,000,000 (Direct Cost: ¥10,000,000、Indirect Cost: ¥3,000,000)
|
Keywords | シンセティックメディア / ディープフェイク検出 / 自動ファクトチェック / 音声情報処理 / 自然言語処理 / 機械学習 / ディープフェイク / ファクトチェック / 深層学習 / 説明可能AI / media clone / deepfake detection / fact checking |
Outline of Research at the Start |
本課題の核心をなす学術的問いは、「A Iによるフェイクメディアに加え、フェイクニュース等不正確な情報が氾濫するインフォデミック時代の今、どの様に、人々に正しいメディアや情報を提示する事ができるか?」である。そこで、以下の3つの課題に取り組む。 課題1 単純な真贋判定に加え、理解可能な根拠を人々へ説明可能な生体検知技術の実現 課題2 既知のメディア生成手法だけでなく、常に進化・改良されるメディア生成手法に対して、高精度に検知を行うフェイクメディア検出法の理論的枠組みの定式化と実現 課題3 クレームが科学的に正しいかどうかを自動判定する技術「自動ファクト照合」と相補的な融合を行ったメディア解析技術実現
|
Outline of Annual Research Achievements |
本物に類似したフェイクメディアが機械学習により容易に生成でき、フェイクニュース等不正確な情報も氾濫するインフォデミック時代の今、適切な意思決定を支援すべく、次世代メディア解析技術を提案する。まずフェイクメディアの改ざん領域を同定し根拠として表示する生体検知手法を提案する。次に常に変化するメディア生成方法に対処するため、未知のフェイクメディア生成法の検知手法を提案する。更にファクトチェックを自動化した自動ファクトチェックの高度化に取り組む。
【課題1】我々は機械学習により生成されたフェイクメディアを見破る技術を開発してきた。これは入力メディアの真贋判定を行う識別技術であるが、真か偽かを予測するだけではなく、なぜ偽と判定したのか、そのエビデンスを人々が理解可能な方法で提示する必要がある。2022年度は改ざん可能性がある領域を、複数の時間解像度において同時推定する技術を提案した。また本研究成果を音声分野のトップジャーナル論文としてまとめることも行った。 【課題2】メディア生成技術は常に変化する。それ故未知手法によるフェイクメディアを検出しなければ、安定的な対応は望めない。そこでフェイクメディア識別モデルの学習用データベース自身を自動拡張する事で未知手法によるフェイクメディア検出を可能にする新たな枠組みを提案し、国際学会において発表した。またフェイクメディアデータを時間をかけずに効率的に生成する手法の検討も行なった。 【課題3】入力クレームの内容が正しいかどうかを自動判定する技術として自動ファクトチェックがある。根拠となる論文や情報源を自動検索、該当文章や段落を自動で選択、真偽を回答する技術である。2022年度も研究を進め、学習済みファクトチェックモデルに破壊的忘却を起こさずに、新しい情報源の知識を追加する技術を提案し、その成果を国際学会において発表した。
|
Current Status of Research Progress |
Current Status of Research Progress
1: Research has progressed more than it was originally planned.
Reason
課題1、課題2、課題3の全てにおいて研究成果を挙げ、その全てがトップカンファレンスもしくはトップジャーナルに掲載されている。
|
Strategy for Future Research Activity |
2023年度も引き続き、本研究の3重要課題の研究に取り組む。
【課題1 説明可能な生体検知】2023年度は改ざん領域推定に関する評価指標を新たに提案する。さらに、改ざん可能性がある領域をグルーピング化する技術も提案する。 【課題2 未知フェイクメディアの検出】メディア生成技術は常に変化する。2023年度はフェイクメディアデータを人手で時間をかけて収集するのではなく、コストをかけずに擬似的に生成する方法をさらに掘り下げ、様々な条件下のフェイクメディアデータを容易に生成する枠組みを提案することを目指す。これにより頑健な識別モデルの実現を目指す。 【課題3 自動ファクトチェック】2023年度は、自動ファクトチェックモデルを人手やコストをかけずに多言語対応させる方法について検討する。具体的には多言語対応した事前学習済み言語モデルを導入し、日本語を含む複数の言語において自動ファクトチェックを実現する。
|