人々がAIの道徳的判断を受け入れる条件を互恵的場面で検討

立正大学学園

発表のポイント

・他者への協力の是非を決める意思決定の場で、人々が道徳的に確信を持てない場合、AIの判断をどう受入れるかを調査

・特定の場面で、AIの判断は人間による判断よりも人々に採用されやすく、AIの判断はより客観的であると認識されている可能性

・本成果は、人間の期待や社会的規範に合致したAIシステムの設計に貢献

 


 立正大学の山本仁志教授と津田塾大学の鈴木貴久准教授の研究チームは、AIの道徳的判断を人々が受け入れる条件を探るために、善悪の判断をするのが難しい「評判の悪い人を助けない(正当化される非協力)」という行動に着目して、人々がどのような条件でAIの判断を人間の判断よりも受け入れるかを探求しました。この研究では、AIが肯定的な判断を下し、人間が否定的な判断をした場合に、人々がAIの判断をより好意的に受け入れる傾向があることが明らかになりました。研究の成果は、2025年1月27日に英国Nature Publishing Groupのオンライン学術誌Scientific Reportsに掲載されました。

 

 AI技術が日常生活にますます取り入れられる中、AIの判断をどのように受け入れるかを理解することは重要な課題です。これまでの研究では、人々はAIの判断に対して「アルゴリズム嫌悪」や「アルゴリズム礼賛」といった偏見を持つことが指摘されています。本研究は、特に間接互恵性の文脈で、人々が自分自身の道徳的判断に確信を持てない場面に焦点を当てています。間接互恵性とは、評判に基づいて他者と協力するかどうかを判断するメカニズムです。

 

 研究チームは、職場におけるAI管理者の判断と人間管理者の判断を比較する2つの実験を実施しました。実験の結果、正当化される非協力をAIが肯定的に判断し、人間がそれを否定的に判断した場合、参加者はAIの判断をより受け入れる傾向があることが判明しました。このことは、人間の判断が偏見や隠れた意図によって左右されると見なされる一方で、AIの判断がより客観的であると認識される可能性があることを示唆しています。

 

 本研究の結果は、人々がAIの道徳的・社会的判断を受け入れるメカニズムの理解を深めるとともに、こうした受け入れ方が文脈に大きく左右されることを示しています。複雑な意思決定の際、AIに依存する機会が急激に増加している社会において、このような洞察は、人間の期待や社会的規範に合致したAIシステムの設計に重要な役割を果たします。

 

論文情報

・雑誌名:Scientific Reports

・論文名:Exploring condition in which people accept AI over human judgements on justified defection.

・著者:Yamamoto, H., Suzuki, T.

・掲載日:2025年1月27日(現地時間)

・掲載URL:https://www.nature.com/articles/s41598-025-87170-w

・DOI:10.1038/s41598-025-87170-w

本プレスリリースは発表元が入力した原稿をそのまま掲載しております。また、プレスリリースへのお問い合わせは発表元に直接お願いいたします。

プレスリリース添付画像

イメージ

このプレスリリースには、報道機関向けの情報があります。

プレス会員登録を行うと、広報担当者の連絡先や、イベント・記者会見の情報など、報道機関だけに公開する情報が閲覧できるようになります。

プレスリリース受信に関するご案内

このプレスリリースを配信した企業・団体

  • ※購読している企業の確認や削除はWebプッシュ通知設定画面で行なってください
  • SNSでも最新のプレスリリース情報をいち早く配信中