研究課題/領域番号 |
24H00731
|
研究種目 |
基盤研究(A)
|
配分区分 | 補助金 |
応募区分 | 一般 |
審査区分 |
中区分61:人間情報学およびその関連分野
|
研究機関 | 国立情報学研究所 |
研究代表者 |
山田 誠二 国立情報学研究所, コンテンツ科学研究系, 教授 (50220380)
|
研究分担者 |
小野 哲雄 北海道大学, 情報科学研究院, 特任教授 (40343389)
|
研究期間 (年度) |
2024-04-01 – 2028-03-31
|
研究課題ステータス |
交付 (2024年度)
|
配分額 *注記 |
42,900千円 (直接経費: 33,000千円、間接経費: 9,900千円)
2024年度: 12,220千円 (直接経費: 9,400千円、間接経費: 2,820千円)
|
キーワード | AIに対する信頼 / AIに対する過信・不信 / AIに対する過不信の予測と予防 |
研究開始時の研究の概要 |
昨今の生成系AIであるChatGPTや自動運転の普及により人間-AI協調意思決定が日常的になるに伴って顕在化してきた問題の一つに,人間がAIを信頼し過ぎてしまう過信と逆に過度に信頼しない不信がある.この過不信を抑制するために,本研究では『AIに対する人間の過不信に注目し,認知モデリングによってそのメカニズムを解明し,それを予防できるAIを構築する』.予防キューの設計には,人間の行動変容を促すナッジ技術が用いられる.そして,リアルタイムな過不信回避が必須である自動車やドローンの自動運転においてPOT-AIを実装し,参加者実験により過信不信予測モデルおよびPOT-AIの有効性を検証する.
|