研究課題/領域番号 |
22K20320
|
研究種目 |
研究活動スタート支援
|
配分区分 | 基金 |
審査区分 |
0110:心理学およびその関連分野
|
研究機関 | 早稲田大学 (2023) 埼玉県立大学 (2022) |
研究代表者 |
谷辺 哲史 早稲田大学, 文学学術院, 講師(テニュアトラック) (20964480)
|
研究期間 (年度) |
2022-08-31 – 2024-03-31
|
研究課題ステータス |
完了 (2023年度)
|
配分額 *注記 |
2,730千円 (直接経費: 2,100千円、間接経費: 630千円)
2023年度: 1,300千円 (直接経費: 1,000千円、間接経費: 300千円)
2022年度: 1,430千円 (直接経費: 1,100千円、間接経費: 330千円)
|
キーワード | 人工知能 / 自動運転 / 規範 / 公正感 / 自動運転車 / 倫理的判断 / 社会規範 |
研究開始時の研究の概要 |
本研究は、人々が人工知能(AI)に期待する倫理的判断を実証的に検討する。 人間の日常的な意思決定は必ずしも一貫した倫理的規則に従っておらず、たとえば自動車の運転では周囲の車の流れに合わせるために法定速度を破るように、状況に応じて従うべき規則を使い分けている。自動運転のようにAIが人間の判断を代行するようになると、このような柔軟な倫理的判断をAIも行うべきなのかという問題が生じる。本研究では、人々がAIに対して抱く期待を明らかにすることで、社会的に受容される技術開発を進めるための基礎データを提示する。
|
研究成果の概要 |
本研究は倫理的な問題に関わる人工知能(AI)の判断について、AIの専門家ではない一般の人々の反応を定量的に調査した。研究1では、自動車の速度に関わる矛盾した規範(法定速度の遵守と周囲の流れ(実勢速度)に合わせること)が存在する場面での自動運転車の挙動に対する評価を調査した。その結果、人間が運転する場合に比べて、自動運転では法定速度を遵守することが望ましいと判断される傾向が示された。研究2では、AIの判断が性別によるバイアスを生じさせたとき、人間が同様の判断をする場合と比べると否定的な印象が緩和される可能性が示された。ただしいずれの研究でも効果量は小さく、結果の頑健性は今後の検討課題である。
|
研究成果の学術的意義や社会的意義 |
本研究の成果は、AIの開発や社会実装を社会的に受容される形で進めていく際に参照できる経験的な知見を提供する点で社会的意義があると考えられる。人間とAIでは期待される判断内容が必ずしも同じではないことや、同じ判断をしても異なった印象を与えうるという結果は、AIの判断にどの程度の柔軟性を持たせるかという設計上の問題や、AIに判断を任せてよい範囲を見極めるという運用上の問題を検討する際に役立つことが期待できる。また学術的な意義としては、倫理的判断の内容が同じでも判断主体が人か否かによって適切さの評価が変わることを定量的手法によって確認し、倫理に関して人々が持っている判断基準を解明することに貢献した。
|