研究課題/領域番号 |
20J11786
|
研究機関 | 同志社大学 |
研究代表者 |
横井 良典 同志社大学, 大学院心理学研究科, 特別研究員(DC2)
|
研究期間 (年度) |
2020-04-24 – 2022-03-31
|
キーワード | 信頼 / 人工知能 / 医療 / 交通 / モラルジレンマ / 功利主義 / 義務論 |
研究実績の概要 |
2020年度は,2つのオンライン実験を行った。 実験1では,交通場面を題材に,270名の大学生を対象に行われた。実験参加者を人工知能条件と人間条件に振り分けた。参加者は,パソコン上でシナリオを読んだ。シナリオの内容は,「自動車が走っており,突然ブレーキが故障しました。このまま直進すると2人の歩行者を轢いてしまう。この2人を救うためには,車線を切り替える必要がある。しかし,車線を切り替えると,その先にいる1人の歩行者を轢いてしまう」という内容であった。この状況において,2人を救うという判断は功利主義的な判断と呼ばれる。一方,わざわざ車線を切り替えることはせず,1人を救うことは義務論的な判断と呼ばれる。人工知能条件の参加者は,人工知能を搭載した自動運転車が判断を行うというシナリオを読んだ。人間条件の参加者は,人間のドライバーが判断を行うというシナリオを読んだ。なお事前に「このシナリオにおいて,あなたであれば,どちらの判断を下しますか」と参加者に尋ねていた。その結果,約7割の参加者が功利主義的な判断を下していた。シナリオを読んだ後,それぞれの条件の参加者は人工知能あるいは人間ドライバーへの信頼を評定した。その結果,人工知能と人間ドライバーとの間で信頼の得点はあまり変わらなかった。 実験2では,医療場面を題材に,大卒の一般人605名を対象に実験を行った。まず,参加者を人工知能条件と人間条件にランダムに振り分けた後,医療に関わるジレンマシナリオを読ませた。実験2では実験1とは異なり,約8割の参加者が義務論を選択した。選択後,人工知能条件の参加者は人工知能が判断を行うというシナリオを,人間条件の参加者は人間の医師が判断を行うシナリオを読んだ。最後に,実験参加者は人工知能あるいは医師への信頼を評定した。その結果,人工知能は人間の医師よりも信頼されていないという知見が得られた。
|
現在までの達成度 (区分) |
現在までの達成度 (区分)
3: やや遅れている
理由
交通場面と医療場面における人工知能を題材に,合計2つのオンライン実験を行った。元々の計画では軍事場面を扱う実験も行う予定ではあったが,人工知能の導入が積極的に進められているという点で,交通場面と医療場面にのみ焦点を当てた。この点については,計画通りに進まなかったと言える。実験参加者の募集については,株式会社クロス・マーケティング社に依頼した。当該企業に依頼することで,幅広い属性の人を対象にしたサンプリングを実施できた。データの収集に関しては,計画通り実施することができた。この研究に関わる論文を2本,国際学術誌へ投稿し,その成果を公表できた。そのうち1本はHuman Factorsというインパクトファクターの高い国際誌であった。主要な国際誌に論文が掲載された点については,期待以上の成果があったと言える。一方,新型コロナウィルスの影響で,予定していた国際会議に参加できず,一部成果を公表できない事態も発生した。期待以上の進展があった点と計画通りに進まなかった点を総合して,「おおむね順調に進展している」という評価とする。
|
今後の研究の推進方策 |
今後の研究としては,「なぜ,義務論が望まれる状況において,人工知能は信頼されにくいのか」という問題を解決していく。従来から,義務論的な判断には同情や共感など感情の働きが関わっていることが先行研究によって示されている。当然,人工知能は人間のように感情を持っておらず,相手に同情することはできない。義務論が望まれる状況では,同情できない人工知能を信頼したくないと,参加者が考えた可能性がある。人工知能が同情できると思っているかどうかという認知が,人工知能への信頼に影響するのかどうかを今後の検討課題とする。この問題を検討するために,まず交通場面を取り上げる。交通場面のシナリオを操作することで,功利主義が望まれやすいシナリオと義務論が望まれやすいシナリオを用意し,シナリオ間で人工知能への信頼が変わるのかどうかを検討する。そして,もし信頼に有意差が検出されるのであれば,人工知能が同情できると思うかという認知がその差を説明するのかどうかを検討する。
|