研究課題/領域番号 |
21K12028
|
研究種目 |
基盤研究(C)
|
配分区分 | 基金 |
応募区分 | 一般 |
審査区分 |
小区分61030:知能情報学関連
|
研究機関 | 京都大学 |
研究代表者 |
蟻坂 竜大 京都大学, 情報学研究科, 講師 (00774580)
|
研究分担者 |
伊藤 孝行 京都大学, 情報学研究科, 教授 (50333555)
川本 裕輔 国立研究開発法人産業技術総合研究所, 情報・人間工学領域, 主任研究員 (60760006)
|
研究期間 (年度) |
2021-04-01 – 2025-03-31
|
研究課題ステータス |
交付 (2023年度)
|
配分額 *注記 |
4,160千円 (直接経費: 3,200千円、間接経費: 960千円)
2023年度: 1,300千円 (直接経費: 1,000千円、間接経費: 300千円)
2022年度: 1,560千円 (直接経費: 1,200千円、間接経費: 360千円)
2021年度: 1,300千円 (直接経費: 1,000千円、間接経費: 300千円)
|
キーワード | 詭弁検証 / 議論検証 / 数理議論 / 議論進行サポート / 形式検証 / 自動証明 / プログラム検証 / 信用 / separation logic |
研究開始時の研究の概要 |
機械学習の手法を用いた議論AIの開発が進む中、AIの挙動が議論の趣旨に合致するか、その公正性・適切生を保障することが課題になってきている。現状、人が議論の社会実験を行い、それに基づいてAIの挙動を調整しているが、調整に係る人的コストは非常に大きく、汎用性の問題もある。そこで、AIの挙動の統制を自動化するために、本研究では、「議論検証」という、プログラム検証の枠組みと数理議論の枠組みを融合させる研究領域を創出する。具体的には、議論の仕様を任意に記述可能とする形式言語を導入し、議論が仕様に沿うかを自動で検証する手法を構築する。これを通して、AIの発言の公正性・適切性の自動検証を実現する。
|
研究実績の概要 |
誤謬や詭弁の検出手法に関して、議論ではしばしば統計を用いることも多く、健全な議論では統計に関わる誤謬を避ける必要がある。そこで、統計における誤謬の有無について推論するためのプログラム論理(BHL)を構築した。この研究成果は論文誌Artificial Intelligenceで発表した。 前年度までに構築した誤謬・詭弁検出のための議論モデルでモデル化された対話や議論に、通常数理議論で考察される容認意味論(議論中のどの主張を受け入れるかを決定するための意味論)を適用することで、その対話や議論中に生じる論理に依る誤謬・詭弁を検知することができる。しかし、従来の数理議論の容認意味論の定義方法では、主張の容認性を柔軟に決定することが難しく、議論のオーガナイザなどが自身の想定する議論進行形式に沿って自由に容認性を指定することができない。この問題を緩和するため、容認性をtuple relational calculus(部分的な一階述語論理)を用いて行い、柔軟な定義を可能にした。
|
現在までの達成度 (区分) |
現在までの達成度 (区分)
2: おおむね順調に進展している
理由
前年度に言及した遷移意味論の研究課題については、プログラム検証の理論に従って、統計における誤謬の有無について推論するためのプログラム論理(BHL)を構築したことで、成果がでている。論理に基づく誤謬・詭弁の検出に関わる論理的な手法の構築も行なった。さらに、誤謬・詭弁一般を扱う遷移意味論の構築も進んでおり、発表の用意を進めている。
|
今後の研究の推進方策 |
得られた研究成果を発表することを中心に行う。 ルクセンブルク大学との国際共同研究も開始した。(1)純粋に論理的な検証手法を言語モデルなどで置き換えて、詭弁検証にかかる計算量の問題を緩和する手法開発を進めている。(2)対話プロトコルに基づく形式対話理論の構築も進めている。
|