人々がAIの道徳的判断を受け入れる条件を互恵的場面で検討
発表のポイント
・他者への協力の是非を決める意思決定の場で、人々が道徳的に確信を持てない場合、AIの判断をどう受入れるかを調査
・特定の場面で、AIの判断は人間による判断よりも人々に採用されやすく、AIの判断はより客観的であると認識されている可能性
・本成果は、人間の期待や社会的規範に合致したAIシステムの設計に貢献
立正大学の山本仁志教授と津田塾大学の鈴木貴久准教授の研究チームは、AIの道徳的判断を人々が受け入れる条件を探るために、善悪の判断をするのが難しい「評判の悪い人を助けない(正当化される非協力)」という行動に着目して、人々がどのような条件でAIの判断を人間の判断よりも受け入れるかを探求しました。この研究では、AIが肯定的な判断を下し、人間が否定的な判断をした場合に、人々がAIの判断をより好意的に受け入れる傾向があることが明らかになりました。研究の成果は、2025年1月27日に英国Nature Publishing Groupのオンライン学術誌Scientific Reportsに掲載されました。
AI技術が日常生活にますます取り入れられる中、AIの判断をどのように受け入れるかを理解することは重要な課題です。これまでの研究では、人々はAIの判断に対して「アルゴリズム嫌悪」や「アルゴリズム礼賛」といった偏見を持つことが指摘されています。本研究は、特に間接互恵性の文脈で、人々が自分自身の道徳的判断に確信を持てない場面に焦点を当てています。間接互恵性とは、評判に基づいて他者と協力するかどうかを判断するメカニズムです。
研究チームは、職場におけるAI管理者の判断と人間管理者の判断を比較する2つの実験を実施しました。実験の結果、正当化される非協力をAIが肯定的に判断し、人間がそれを否定的に判断した場合、参加者はAIの判断をより受け入れる傾向があることが判明しました。このことは、人間の判断が偏見や隠れた意図によって左右されると見なされる一方で、AIの判断がより客観的であると認識される可能性があることを示唆しています。
本研究の結果は、人々がAIの道徳的・社会的判断を受け入れるメカニズムの理解を深めるとともに、こうした受け入れ方が文脈に大きく左右されることを示しています。複雑な意思決定の際、AIに依存する機会が急激に増加している社会において、このような洞察は、人間の期待や社会的規範に合致したAIシステムの設計に重要な役割を果たします。
論文情報
・雑誌名:Scientific Reports
・論文名:Exploring condition in which people accept AI over human judgements on justified defection.
・著者:Yamamoto, H., Suzuki, T.
・掲載日:2025年1月27日(現地時間)
・掲載URL:https://www.nature.com/articles/s41598-025-87170-w
・DOI:10.1038/s41598-025-87170-w
本プレスリリースは発表元が入力した原稿をそのまま掲載しております。また、プレスリリースへのお問い合わせは発表元に直接お願いいたします。
このプレスリリースには、報道機関向けの情報があります。
プレス会員登録を行うと、広報担当者の連絡先や、イベント・記者会見の情報など、報道機関だけに公開する情報が閲覧できるようになります。
このプレスリリースを配信した企業・団体
- 名称 学校法人立正大学学園
- 所在地 東京都
- 業種 大学
- URL https://www.ris.ac.jp/
過去に配信したプレスリリース
人々がAIの道徳的判断を受け入れる条件を互恵的場面で検討
1/30 12:00
【立正大学】新学長選任のお知らせ
2024/12/3
評判コストに対して頑健な社会規範をシミュレーションにより解明
2024/10/28
11月3日立正大学品川キャンパスにて映画「カムイのうた」上映会開催
2024/10/22
立正大学仏教文化公開講座「聖地ネパールと日本をつなぐもの」10月11日開催
2024/7/25
【立正大学】ウズベキスタン学術調査隊2024年度第1回報告会を開催
2024/7/17
タシケント国立東洋学大学×立正大学 学術交流協定締結記念シンポジウムを開催
2024/4/18