
-
生物通官微
陪你抓住生命科技
跳动的脉搏
人工智能比人类更公平?自我中心主义在AI与人类决策道德评判中的角色
【字体: 大 中 小 】 时间:2025年06月16日 来源:Computers in Human Behavior Reports 4.9
编辑推荐:
本研究探讨了算法公平性(Algorithmic Fairness)的核心问题:当AI与人类做出相同决策时,人们的道德评判如何受自我利益(Self-interest Bias)影响。通过3项实验(N=1880)发现,决策者做出有利于观察者的不公平时,会被认为更道德;但这种自我中心偏见(Egocentric Bias)在AI决策中较弱,因其被感知的"心智"(Mind Perception)和喜爱度(Liking)较低。研究挑战了"算法公平即足够"的假设,为AI在高风险决策领域的应用提供了新见解。
随着人工智能(AI)在招聘、医疗诊断和刑事司法等高风险领域的广泛应用,算法公平性(Algorithmic Fairness)成为可信AI的核心原则。但一个令人深思的现象是:人们评判AI决策时,是否和评判人类决策一样容易受到自我利益的影响?心理学经典理论表明,人类对道德和公平的判断存在自我中心偏见(Egocentric Bias)——我们往往认为有利于自己的不道德行为更可接受。但当决策者从人类变成AI时,这种偏见会如何变化?
波兰SWPS大学心理学研究所的研究团队通过三项精心设计的实验(N=1880)揭示了这一认知黑箱。研究发现,当决策者(无论是人类还是AI)做出有利于观察者的不公平决定时,会被认为更道德;但有趣的是,这种自我服务偏差在AI决策中显著减弱。深层机制分析显示,由于AI被感知的"心智"(Mind Perception)和获得的喜爱度(Liking)较低,人们对其的道德评判更少受到个人利益影响。该成果发表于《Computers in Human Behavior Reports》,为理解AI时代的道德认知提供了全新视角。
研究采用三项行为实验法(两项预注册),通过模拟经济决策任务操纵自我利益条件。1880名美国参与者(Prolific平台招募)被随机分配到AI或人类决策者条件,经历不同利益关联的奖金分配场景。关键测量包括道德特质评分(Moral Character)、公平感知(Fairness Perception)、心智感知量表(Mind Perception Scale)和喜爱度评分,采用ANOVA和调节中介分析(Moderated Mediation Analysis)处理数据。
【Egocentric Morality in Fairness and Moral Judgments of AI and Humans】
基于自我中心伦理理论(Egocentric Ethics Theory),研究发现决策结果对观察者有利时,即使明显不公平,决策者也会获得更高道德评价。在打字任务实验中,当参与者因决策者偏袒获得更多奖金时,他们对决策者的道德评分显著提升,验证了H1假设。
【Moral Character Judgments and Mind Perception】
通过心智感知理论(Mind Perception Theory)框架,发现人类决策者在"能动性"(Agency)和"体验性"(Experience)两个维度上都获得更高评分。中介分析显示,心智感知差异解释了为什么人类决策者比AI获得更强自我利益偏袒——我们更宽容"像我们"的决策者。
【Overview of Studies】
三项研究系统检验了关键假设:研究1发现自我利益显著影响公平判断;研究2通过损失框架强化效应,发现AI因较低心智感知和喜爱度获得较少偏袒;研究3引入公平对照条件,证实AI决策能部分规避自我中心偏见。
【General Discussion】
这项研究具有多重理论意义:首先,将自我中心偏见研究拓展到AI领域,补充了计算机社会行为(CASA)理论;其次,揭示了心智感知在道德评判中的新作用——不仅影响责任归因,还调节利益关联效应;最后,采用行为实验而非情景假设,提高了生态效度。
实践层面,研究警示我们:单纯优化算法公平性可能不足以保证公平结果,因为人类评判本身存在系统性偏差。这对AI系统设计有直接启示:可能需要通过降低拟人化特征来减少评判偏差,或开发专门的"去偏见"培训程序。随着AI在司法、医疗等领域的渗透,理解这些心理机制对建设可信AI生态系统至关重要。
研究也存在若干局限:实验任务经济激励较小;样本局限于美国群体;AI交互模拟性待加强。未来研究可探索跨文化差异,或采用真实AI系统检验效应。一个特别有趣的延伸是:如果增强AI的拟人化特征,是否会使其获得更多"人类式"的偏袒?这将是AI伦理研究值得探索的方向。
生物通微信公众号
知名企业招聘