2021年度はまず,研究計画書に記載した「同情を誘うジレンマ状況において,人工知能への信頼は低下するのか」というテーマで行ったオンライン実験を英語論文化した。具体的な実験内容について,交通場面を題材に,大卒の一般人609名を対象にした実験を行った。まず,実験参加者を人工知能条件と人間条件にランダムに振り分けた。実験参加者は,パソコン上でシナリオを読んだ。具体的なシナリオの内容は,「自動車が走っており,突然ブレーキが故障しました。このまま直進すると5人の歩行者を轢いてしまう。この5人を救うためには,車線を切り替える必要がある。しかし,車線を切り替えると,その先にいる女性と赤ちゃんを轢いてしまう」という内容であった。この状況において,5人を救うという数を重視する判断は功利主義的な判断と呼ばれる。一方,わざわざ車線を切り替えることはせず,女性と赤ちゃんを救うことは義務論的な判断と呼ばれる。人工知能条件の参加者は,人工知能を搭載した自動運転車が意思決定を行うというシナリオを読んだ。人間条件の参加者は,人間のドライバーが意思決定を行うというシナリオを読んだ。また,追加の質問として,人工知能あるいは人間ドライバーがどの程度歩行者に対して同情できると思うかという同情能力認知を尋ねた。実験の結果,人工知能は人間のドライバーよりも信頼されていないという知見が得られた。また,人工知能が人間よりも信頼されない原因として,人工知能が歩行者に対して同情できないと思われていることが示唆された。ここで得られた成果を実験社会心理学研究に英語論文として投稿した。
|