研究課題/領域番号 |
19K21570
|
研究種目 |
挑戦的研究(萌芽)
|
配分区分 | 基金 |
審査区分 |
高度科学技術社会の新局面
|
研究機関 | 立正大学 |
研究代表者 |
山本 仁志 立正大学, 経営学部, 教授 (70328574)
|
研究期間 (年度) |
2019-06-28 – 2023-03-31
|
研究課題ステータス |
完了 (2022年度)
|
配分額 *注記 |
6,240千円 (直接経費: 4,800千円、間接経費: 1,440千円)
2021年度: 1,300千円 (直接経費: 1,000千円、間接経費: 300千円)
2020年度: 2,470千円 (直接経費: 1,900千円、間接経費: 570千円)
2019年度: 2,470千円 (直接経費: 1,900千円、間接経費: 570千円)
|
キーワード | 協力の進化 / 間接互恵 / 社会的ジレンマ / 社会規範 / 道徳のジレンマ / 間接互恵性 / social norms / 進化ゲーム理論 / エージェントシミュレーション / evolution of cooperation / social dilemma / agent-based moeling |
研究開始時の研究の概要 |
本研究は人と人工知能(AI)が混在した環境において人の道徳判断基準はいかに進化しうるのかを明らかにする。AI関連技術の急速な発展により人とAIの共存は世界的に大きな課題となっている。メディアにおいても人間の労働を代替するのかといった議論が多く交わされている。しかしその多くは人の知的処理能力を超えるAIと人間の能力を如何に共存させるかという能力的な共存関係が中心的な課題である。本研究では人とAIが混在する環境で人が持つ道徳判断基準がどのように変化するのかについて議論する。
|
研究成果の概要 |
本研究課題では人間の行動メカニズムを明らかにする被験者実験と、人々の行動モデルの理論的妥当性や異なる環境下での振る舞いを予測するためのエージェントシミュレーションを併せて用いることで、理論・実践の両面から総合的に検討をおこなった。本研究課題の最大の目的である人・AI共存下での道徳判断基準の進化についてはこの状況に着目し、様々な状況を想定したシナリオ実験を中心に人・AI共存環境における人の同党判断基準ならびにAIの判断の受容過程について分析した。
|
研究成果の学術的意義や社会的意義 |
本研究課題の学術的・社会的意義は課題の速報的重要性と学術的知見の蓄積が未整備であるという現状である。人の道徳判断基準や向社会的行動の要因を探る研究は古くから社会心理学分野を中心に研究が蓄積されてきた。しかし人間より多くの情報を高度に処理する主体が存在するという環境は近年になって人類が初めて直面したものである。そこで本研究課題では人が判断を保留ないし迷う状況下で下される善悪判断が、AIと人間の混在環境下でどのように進化しうるかをシミュレーション、被験者実験を通じて明らかにした。
|