你是谁的代理人?在社交决策中,人际关系规范影响着人们对算法顾问和人类顾问的期望
《Computers in Human Behavior: Artificial Humans》:Whose agent are you? Relational norms shape expectation from algorithmic and human advisors in social decisions
【字体:
大
中
小
】
时间:2025年10月11日
来源:Computers in Human Behavior: Artificial Humans
编辑推荐:
算法顾问与人类顾问在金钱分配决策中因关系模型理论框架下的规范差异而呈现不同期望。实验表明,算法顾问被预期更具公平导向(敏感度α=0.22 vs 0.036)和推荐一致性(4.2 vs 3.5),体现机构性规范;人类顾问则被赋予个人忠诚(α=0.036 vs 0.22),符合人际互动的利己倾向。框架效应显示,机构性标签增强公平敏感度(Δα=0.117)和一致性预期(Δ=0.244),而个人框架下算法仍保持更高敏感度(p=0.01)。研究揭示算法与人类顾问在关系类型中被系统性区隔,需在AI设计中平衡机构规范与人际适应性。
随着人工智能技术的迅猛发展,算法驱动的顾问系统逐渐渗透到以往主要由人类承担的领域中,例如财务咨询、心理健康支持以及个人关系和职业决策建议。这些系统的出现引发了关于人类如何看待与算法顾问之间的关系的深入探讨。本文通过实证研究揭示了人们在面对算法与人类顾问时所持有的不同规范性期望,并探讨了这些期望如何受到关系框架的影响。
在社会决策情境中,人们常常需要在自身利益与其他人的福祉之间进行权衡。这种权衡不仅反映了个体的道德偏好,还体现了社会关系对决策过程的深远影响。Relational Models Theory(RMT)提供了一个理解社会关系如何塑造规范性期望的理论框架。根据RMT,不同的关系类型会激活不同的行为规范:亲密关系通常伴随着利他行为和偏好性对待,而制度性关系则强调公正和一致性。本文的研究聚焦于算法顾问和人类顾问在这些社会情境中的表现预期,旨在探讨人们是否将算法视为类似于制度性角色的公平和规则导向的实体,还是将它们视为具有个人情感和偏好的人类角色。
研究设计了两个实验,涉及共492名参与者。实验一通过对比人类和算法顾问在金钱分配任务中的预期行为,揭示了人们对于两者在社会决策中的不同规范性期望。实验二则通过引入“制度性”和“个人性”的关系框架,进一步检验了这些期望是否因关系背景的不同而发生变化。实验中,参与者被要求预测算法和人类顾问在不同情境下的建议,这些情境涉及自身利益与他人利益之间的冲突或协调。通过分析这些预测数据,研究者量化了参与者对顾问“对他人收益的敏感度”(STOP)和“一致性”的期望。
实验结果显示,参与者普遍预期算法顾问在金钱分配任务中表现出更高的对他人收益的敏感度和更强的一致性。即使在算法推荐导致参与者自身收益减少的情况下,人们仍倾向于认为算法顾问的行为是公平和符合制度性规范的。相比之下,人类顾问的建议更可能优先考虑参与者自身的利益,这种行为模式与个人关系中的利他倾向相一致。实验一的分析表明,算法顾问的STOP值显著高于人类顾问,而一致性预期也显示出类似的趋势。
在实验二中,研究者通过调整关系框架,进一步验证了这些预期是否受到情境影响。当顾问被描述为“制度性”时,参与者预期两者都表现出更高的对他人收益的敏感度和一致性,这与RMT的预测一致。然而,无论顾问被描述为制度性还是个人性,参与者对算法顾问的敏感度和一致性预期始终高于人类顾问。这一发现表明,尽管人们可以基于不同的关系框架调整对顾问的期望,但算法顾问的“制度性”特征在人们的认知中具有较强的稳定性,这种稳定性可能源于算法本身的系统性和规则导向的特性。
研究还探讨了不同关系框架对顾问预期的影响。当顾问被描述为“制度性”时,参与者更倾向于认为他们遵循公正和一致的决策标准;而在“个人性”框架下,参与者则更关注顾问对自身利益的考虑。这种预期的差异反映了人们在不同关系背景下对顾问角色的期望有所不同。然而,研究发现,无论关系框架如何变化,参与者对算法顾问的敏感度和一致性预期始终高于人类顾问,这表明算法顾问在人们的认知中具有独特的“制度性”特征,这些特征可能难以通过个人性框架来完全消除。
这一研究结果对人工智能顾问的设计和应用具有重要的启示意义。首先,它表明人们在与算法顾问互动时,倾向于将其视为一种制度性角色,而不是具有个人情感和偏好的人类角色。因此,设计算法顾问时,应充分考虑这种制度性预期,并在系统中体现公正、一致和可预测的决策模式。其次,研究结果提示,虽然关系框架可以影响人们对顾问的期望,但算法顾问的制度性特征具有较强的内在稳定性,这种稳定性可能使它们在某些情境下更受信任,尤其是在需要高度一致性和公平性的决策中。
此外,研究还强调了人类与算法顾问在社会决策中的不同作用。人类顾问由于其在情境适应和情感共鸣方面的能力,更适合处理需要个人关怀和灵活性的决策,例如心理健康支持和职业咨询。而算法顾问则因其系统性和可预测性,在需要大规模优化和标准化决策的场景中表现更优,例如金融投资和政策执行。因此,未来在设计和部署人工智能顾问系统时,应根据具体的决策情境,合理分配人类和算法顾问的职责,以最大化各自的优势。
本文的研究还揭示了社会关系对人类决策的影响。人们在与他人互动时,会根据关系类型调整自己的行为和期望。例如,在亲密关系中,人们更倾向于寻求偏好的对待;而在制度性关系中,人们则更关注公平和一致性。这种现象在人类与算法顾问的互动中同样存在,但算法顾问的制度性特征可能使它们在某些情境下更容易被接受和信任。
然而,研究也指出了一些局限性。首先,实验主要聚焦于社会决策情境,而未涵盖其他类型的决策,如竞争性或非社会性决策。因此,研究结果可能无法完全推广到所有情境。其次,实验中对顾问的描述较为简略,可能影响参与者对顾问角色的判断。未来的研究可以探索更详细的顾问描述如何影响人们的预期和信任。最后,研究样本主要来自美国、英国、德国、法国和爱尔兰,而不同文化背景下的关系规范和期望可能存在差异。因此,未来的研究可以进一步探讨这些结果是否适用于其他文化环境。
总体而言,本文的研究为理解人类与人工智能之间的关系提供了新的视角。它表明,人们在面对算法顾问时,会基于其制度性特征形成不同的期望,这些期望可能影响其对算法的接受度和信任度。未来的研究应继续探索这些关系规范如何在不同情境下影响人类与算法的互动,并进一步优化人工智能顾问的设计,使其在保持制度性特征的同时,也能更好地适应个人需求和情境变化。通过深入理解这些规范性期望,我们可以更有效地设计和部署人工智能系统,使其在复杂的社会决策中发挥更大的作用。
生物通微信公众号
生物通新浪微博
今日动态 |
人才市场 |
新技术专栏 |
中国科学人 |
云展台 |
BioHot |
云讲堂直播 |
会展中心 |
特价专栏 |
技术快讯 |
免费试用
版权所有 生物通
Copyright© eBiotrade.com, All Rights Reserved
联系信箱:
粤ICP备09063491号