研究実績の概要 |
本研究は、認識の変化を形式的に扱う論理である動的認識論理を用いて、これの発展体系として嘘や誤情報といった不確かな情報を形式的に扱うことを目的としている。 昨年度は、OpenAI社のChatGPT(GPT-3, GPT-4)を筆頭に大規模言語モデルがあらゆる場面で話題を席巻した。それに伴いChatGPTの応答に見られるhallucinationとよばれる現象、偽情報をあたかも本当のことのようにアウトプットする現象(深層学習モデルに人間の意図に相当するものを持ち合わせていないが、端的に言えば虚情報)が多くの人に知られた。同様に、Deepfakeなどの映像や画像における生成系AIのめざましい発展と、それらが偽情報の作成に悪用され始めたことでインターネット上における嘘情報を見抜く必要性が広く認知された年であったと言える。 また、ChatGPT(GPT-3、GPT-4)の驚異的な性能が本研究の研究手法にも影響を与えると考えている。たとえば、従来困難だった自然言語から論理式への変換作業を、GPT-3を適切な教師データでファインチューニングすることで容易にすることが可能である。そのため、昨年度は、この変換作業を通じて、SNSやブログなど特定の文脈で暗躍するチャットボットの嘘情報に対して、本研究の嘘探知の仕組みを適用できる可能性を検討した。 GPTのファインチューニングを適切に活用することで、自然言語の論理式への変換や様相論理のモデル設計など、これまでの熟練者しかできなかった作業を容易化することができる。それに伴い、形式論理学の研究が実社会で応用される可能性が格段に高まったと言える。今後も生成AIを効果的に活用し、認識論理学の研究への応用可能性を見定めていきたい。
|