研究課題/領域番号 |
20J11786
|
研究種目 |
特別研究員奨励費
|
配分区分 | 補助金 |
応募区分 | 国内 |
審査区分 |
小区分10010:社会心理学関連
|
研究機関 | 同志社大学 |
研究代表者 |
横井 良典 同志社大学, 心理学研究科, 特別研究員(DC2)
|
研究期間 (年度) |
2020-04-24 – 2022-03-31
|
研究課題ステータス |
完了 (2021年度)
|
配分額 *注記 |
1,900千円 (直接経費: 1,900千円)
2021年度: 900千円 (直接経費: 900千円)
2020年度: 1,000千円 (直接経費: 1,000千円)
|
キーワード | 人工知能 / 信頼 / 同情 / モラルジレンマ / ヒューマンコンピューターインタラクション / 医療 / 交通 / 功利主義 / 義務論 |
研究開始時の研究の概要 |
将来,人工知能(AI)が人間に代わって意思決定をすることが予想される。その中で,人々はAIを信頼できるのだろうか。本研究では,AIが意思決定を行う状況に着目し,同情を誘うモラルジレンマ状況におけるAIへの信頼について検討する。従来から,科学技術への信頼は,その技術の使用につながると示されている。AIへの信頼を検討する本研究は,AIの使用という実務的問題に貢献できる研究と言える。また,モラルジレンマの状況によってAIへの信頼が変わるかどうかは,あまり検討されていない。本研究は,ジレンマ状況による信頼への効果を実証的に解明し,AIとモラル判断に関する研究を発展するものである。
|
研究実績の概要 |
2021年度はまず,研究計画書に記載した「同情を誘うジレンマ状況において,人工知能への信頼は低下するのか」というテーマで行ったオンライン実験を英語論文化した。具体的な実験内容について,交通場面を題材に,大卒の一般人609名を対象にした実験を行った。まず,実験参加者を人工知能条件と人間条件にランダムに振り分けた。実験参加者は,パソコン上でシナリオを読んだ。具体的なシナリオの内容は,「自動車が走っており,突然ブレーキが故障しました。このまま直進すると5人の歩行者を轢いてしまう。この5人を救うためには,車線を切り替える必要がある。しかし,車線を切り替えると,その先にいる女性と赤ちゃんを轢いてしまう」という内容であった。この状況において,5人を救うという数を重視する判断は功利主義的な判断と呼ばれる。一方,わざわざ車線を切り替えることはせず,女性と赤ちゃんを救うことは義務論的な判断と呼ばれる。人工知能条件の参加者は,人工知能を搭載した自動運転車が意思決定を行うというシナリオを読んだ。人間条件の参加者は,人間のドライバーが意思決定を行うというシナリオを読んだ。また,追加の質問として,人工知能あるいは人間ドライバーがどの程度歩行者に対して同情できると思うかという同情能力認知を尋ねた。実験の結果,人工知能は人間のドライバーよりも信頼されていないという知見が得られた。また,人工知能が人間よりも信頼されない原因として,人工知能が歩行者に対して同情できないと思われていることが示唆された。ここで得られた成果を実験社会心理学研究に英語論文として投稿した。
|
現在までの達成度 (段落) |
令和3年度が最終年度であるため、記入しない。
|
今後の研究の推進方策 |
令和3年度が最終年度であるため、記入しない。
|