• Search Research Projects
  • Search Researchers
  • How to Use
  1. Back to previous page

Detection of Lies/Misinformation Based on Dynamic Epistemic Logic, and Application to a Game with Incomplete Information

Research Project

Project/Area Number 21K17813
Research Category

Grant-in-Aid for Early-Career Scientists

Allocation TypeMulti-year Fund
Review Section Basic Section 61030:Intelligent informatics-related
Research InstitutionJapan Advanced Institute of Science and Technology (2022)
Kwansei Gakuin University (2021)

Principal Investigator

野村 尚新  北陸先端科学技術大学院大学, 先端科学技術研究科, 特別研究員 (40868379)

Project Period (FY) 2021-04-01 – 2023-03-31
Project Status Discontinued (Fiscal Year 2022)
Budget Amount *help
¥4,680,000 (Direct Cost: ¥3,600,000、Indirect Cost: ¥1,080,000)
Fiscal Year 2025: ¥780,000 (Direct Cost: ¥600,000、Indirect Cost: ¥180,000)
Fiscal Year 2024: ¥780,000 (Direct Cost: ¥600,000、Indirect Cost: ¥180,000)
Fiscal Year 2023: ¥780,000 (Direct Cost: ¥600,000、Indirect Cost: ¥180,000)
Fiscal Year 2022: ¥780,000 (Direct Cost: ¥600,000、Indirect Cost: ¥180,000)
Fiscal Year 2021: ¥1,560,000 (Direct Cost: ¥1,200,000、Indirect Cost: ¥360,000)
Keywords動的認識論理 / 様相論理 / 認識論理 / 不完全情報ゲーム / 人工知能 / 誤情報探知 / 定理自動証明
Outline of Research at the Start

動的認識論理は情報取得による認識の変化を扱う論理であるが、これの発展体系として嘘や誤情報といった不確かな情報を扱う体系が考案されている(以下、lieDEL)。本研究は、lieDELの証明論研究を理論的基礎としてこれの定理自動証明器を実装し、この証明器を用いて嘘や誤情報の探知の自動化の可能性を探求する。そして、この結果を嘘といった真偽不明な情報の扱いが重要になる不完全情報ゲームのAIに活用しlieDELの実用性を実験的に検証する。

Outline of Annual Research Achievements

本研究は、認識の変化を形式的に扱う論理である動的認識論理を用いて、これの発展体系として嘘や誤情報といった不確かな情報を形式的に扱うことを目的としている。
昨年度は、OpenAI社のChatGPT(GPT-3, GPT-4)を筆頭に大規模言語モデルがあらゆる場面で話題を席巻した。それに伴いChatGPTの応答に見られるhallucinationとよばれる現象、偽情報をあたかも本当のことのようにアウトプットする現象(深層学習モデルに人間の意図に相当するものを持ち合わせていないが、端的に言えば虚情報)が多くの人に知られた。同様に、Deepfakeなどの映像や画像における生成系AIのめざましい発展と、それらが偽情報の作成に悪用され始めたことでインターネット上における嘘情報を見抜く必要性が広く認知された年であったと言える。
また、ChatGPT(GPT-3、GPT-4)の驚異的な性能が本研究の研究手法にも影響を与えると考えている。たとえば、従来困難だった自然言語から論理式への変換作業を、GPT-3を適切な教師データでファインチューニングすることで容易にすることが可能である。そのため、昨年度は、この変換作業を通じて、SNSやブログなど特定の文脈で暗躍するチャットボットの嘘情報に対して、本研究の嘘探知の仕組みを適用できる可能性を検討した。
GPTのファインチューニングを適切に活用することで、自然言語の論理式への変換や様相論理のモデル設計など、これまでの熟練者しかできなかった作業を容易化することができる。それに伴い、形式論理学の研究が実社会で応用される可能性が格段に高まったと言える。今後も生成AIを効果的に活用し、認識論理学の研究への応用可能性を見定めていきたい。

Report

(2 results)
  • 2022 Annual Research Report
  • 2021 Research-status Report
  • Research Products

    (4 results)

All 2022 2021

All Journal Article (2 results) (of which Peer Reviewed: 1 results) Presentation (2 results)

  • [Journal Article] 議論フレームワーク上の正当性を示す負担に基づく論証評価方法2022

    • Author(s)
      野村尚新、高橋和子
    • Journal Title

      人工知能学 会第120 回人工知能基本問題研究会(SIG-FPAI)議事録

      Volume: 1 Pages: 12-18

    • Related Report
      2021 Research-status Report
  • [Journal Article] Hybrid Reasoning Using Weighted Bipolar Argumentation Framework for Legal Simulation2021

    • Author(s)
      K. Nishihana, S. Nomura, and K. Takahashi.
    • Journal Title

      The Proceedings of Fifteen International Workshop on Juris-informatics (JURISIN2021),

      Volume: 1 Pages: 9-17

    • Related Report
      2021 Research-status Report
    • Peer Reviewed
  • [Presentation] 議論フレームワーク上の正当性を示す負担に基づく論証評価方法2022

    • Author(s)
      野村尚新, 高橋和子
    • Organizer
      人工知能学会 第120 回人工知能基本問題研究会(SIG-FPAI)
    • Related Report
      2021 Research-status Report
  • [Presentation] 歴史記述の自動生成、及び、物語り論による哲学的基礎づけ2021

    • Author(s)
      野村尚新
    • Organizer
      応用哲学会
    • Related Report
      2021 Research-status Report

URL: 

Published: 2021-04-28   Modified: 2023-12-25  

Information User Guide FAQ News Terms of Use Attribution of KAKENHI

Powered by NII kakenhi