研究実績の概要 |
間接互恵場面における正当化される非協力に着目し、正当化される非協力(以下、非協力場面と表記)を上司にあたる判断者が良いと判断した場合、悪いと判断した場合にそれぞれその判断をどの程度受容するかをシナリオ実験によって測定した。また、上司が人間であった場合とAIであった場合でその受容の程度がどのように異なるのか、また違いを規定する要因は何であるのかを探索的に分析した。その結果、AIの判断と人間の判断の受容の程度に違いはみられなかった。いずれの場合も、正当化される非協力Goodと判断する人間・AIがBadと評価する人間・AIより高く評価された。人間とAIに差がない理由としては、エラー管理理論(Haselton & Buss, 2000)が示した2つのエラーの損害の非対称性が影響した可能性がある。すなわち、間違ってBadと評価する損害と、間違ってGoodと評価する損害が非対称と捉えられ、前者のエラーをよりネガティブに感じるために、人間・AIともにGoodを高く評価したのではないかと考えられる。また、AI認知についてAIに対する懸念が高い人々は、そうでない人たちと比較してAIがBadと判断することをより低く、AIがGoodと判断することをより高く評価していた。規範が混在する中でいかにして協力を達成するかについての理論モデルの構築においては「規範混在系」のエージェントシミュレーションをおこなった。複数の規範が混在する環境をモデル化し協力と規範の共進化メカニズムを分析した。その結果、協力の進化に必要な規範・協力の維持に必要な規範を明らかにすることができた
|