| 研究課題/領域番号 |
21K12028
|
| 研究種目 |
基盤研究(C)
|
| 配分区分 | 基金 |
| 応募区分 | 一般 |
| 審査区分 |
小区分61030:知能情報学関連
|
| 研究機関 | 京都大学 |
研究代表者 |
蟻坂 竜大 京都大学, 情報学研究科, 講師 (00774580)
|
| 研究分担者 |
伊藤 孝行 京都大学, 情報学研究科, 教授 (50333555)
川本 裕輔 国立研究開発法人産業技術総合研究所, 情報・人間工学領域, 研究チーム付 (60760006)
|
| 研究期間 (年度) |
2021-04-01 – 2025-03-31
|
| 研究課題ステータス |
完了 (2024年度)
|
| 配分額 *注記 |
4,160千円 (直接経費: 3,200千円、間接経費: 960千円)
2023年度: 1,300千円 (直接経費: 1,000千円、間接経費: 300千円)
2022年度: 1,560千円 (直接経費: 1,200千円、間接経費: 360千円)
2021年度: 1,300千円 (直接経費: 1,000千円、間接経費: 300千円)
|
| キーワード | 数理議論 / 半自動検証 / 議論検証 / 汎用議論モデル / 議論進行サポート / 詭弁検証 / 形式検証 / 自動証明 / プログラム検証 / 信用 / separation logic |
| 研究開始時の研究の概要 |
機械学習の手法を用いた議論AIの開発が進む中、AIの挙動が議論の趣旨に合致するか、その公正性・適切生を保障することが課題になってきている。現状、人が議論の社会実験を行い、それに基づいてAIの挙動を調整しているが、調整に係る人的コストは非常に大きく、汎用性の問題もある。そこで、AIの挙動の統制を自動化するために、本研究では、「議論検証」という、プログラム検証の枠組みと数理議論の枠組みを融合させる研究領域を創出する。具体的には、議論の仕様を任意に記述可能とする形式言語を導入し、議論が仕様に沿うかを自動で検証する手法を構築する。これを通して、AIの発言の公正性・適切性の自動検証を実現する。
|
| 研究成果の概要 |
本研究は、健全な議論進行を支援するため、議論中の誤謬や詭弁を自動検出する数理モデルと検証手法を構築し、その実装を行った。議論の推論に適した記述言語や、誤解や議論の誤認を表現可能な議論理論を構築し、誤謬検出のための形式的要件を定めた。これにより、従来の数理議論理論の限界を克服し、誤謬にかかる柔軟な意味論定義や統計的誤謬検出にも対応可能な数理モデルを開発した。統計的信頼性の導入や半自動検証手法の方向性も示した。Block Argumentationやtuple relational calculusを用いた主張容認意味論の柔軟な設定法の提案も行い、形式的詭弁検出の基盤を構築した。
|
| 研究成果の学術的意義や社会的意義 |
本研究は、議論中の誤謬や詭弁を形式的に特定・検証する手法を構築し、議論の健全性を客観的に評価する基盤を提供した点で学術的意義が大きい。既存の議論理論の限界を超え、誤解や論理的誤謬、統計的誤謬など、現実の議論で発生する多様な問題に対応可能な数理モデルと柔軟な意味論を開発し、議論研究に新たな理論枠組みを提示した。また、社会的意義としては、SNSや政策決定、教育などの実社会で行われる議論において、誤解や詭弁による不健全な議論進行を防ぎ、健全な議論や情報共有を支援する技術的基盤を提供する点が挙げられる。
|