奖惩机制如何帮助人类克服对机器合作对象的偏见:基于大规模迭代公共物品博弈的实验证据

【字体: 时间:2025年06月25日 来源:iScience 4.6

编辑推荐:

  本研究针对人类对机器合作对象存在的"机器惩罚"(machine penalty)现象,通过近2000人参与的迭代公共物品博弈(IPGG)实验,创新性地探讨了奖惩机制对促进人机合作的调节作用。研究发现,单独使用奖励或惩罚虽能提升绝对合作水平,但只有奖惩并用才能完全消除人类对机器合作对象的偏见,为人机协同环境设计提供了重要指导。该成果发表在《iScience》期刊,为构建高效人机协作系统提供了实证依据。

  

在人工智能(AI)技术飞速发展的今天,人机协作已成为不可逆转的趋势。然而一个有趣的现象是,即使面对完全相同的合作行为,人类对机器合作对象的信任度和配合度往往低于人类同伴——这种现象被研究者称为"机器惩罚"(machine penalty)。这种隐形的偏见严重制约了人机协同潜力的发挥,特别是在需要高度协作的领域如工业机器人协作、智能客服交互等场景中。那么,如何打破这种心理壁垒,让人类像对待同类一样信任机器合作者?这正是纽约大学阿布扎比分校等机构的研究团队试图解决的核心问题。

研究团队采用行为经济学领域的经典范式——迭代公共物品博弈(IPGG),设计了一项规模空前的实验研究。实验巧妙地通过信息操控(即让被试误认为自己在与机器互动)来分离技术因素和心理因素对合作行为的影响。在近2000名参与者的数据支持下,研究首次系统评估了奖惩机制对人机合作偏见的调节作用,相关成果发表在跨学科期刊《iScience》上。

研究主要采用了三种关键技术方法:一是基于SoPHIE实验平台的大规模在线行为实验,通过亚马逊土耳其机器人(MTurk)招募1988名美国参与者;二是迭代公共物品博弈(IPGG)的实验设计,设置基线组、反馈组、奖励组、惩罚组和奖惩并用组五种条件;三是多层次回归模型分析,通过随机效应控制个体和组间差异,量化"机器惩罚"效应的大小。

研究结果部分,文章通过多个小标题系统呈现了研究发现:

"奖惩的绝对与相对效应"部分显示,在基线条件下,当被试认为所有合作对象都是机器时,平均贡献值比认为对象是人类时低2.4-4.0个代币,证实了"机器惩罚"现象的存在。引入奖励或惩罚机制后,虽然合作水平整体提升,但机器惩罚仍然显著存在(奖励组差距2.2-5.9代币,惩罚组1.0-4.2代币)。而只有在奖惩并用的条件下,机器惩罚才被完全消除(差距-1.5-2.3代币,统计不显著)。

"奖励与惩罚的频率"部分发现,当合作对象被假定为人类时,奖励使用率高达73%,而假定为机器时降至47%;惩罚行为则整体罕见(2-4%),且不受对象类型影响。这表明奖惩频率差异并非消除机器惩罚的关键机制。

"对奖励的反应"部分揭示了更微妙的行为机制:当仅提供奖励时,认为合作对象是机器的被试在获得2-3次奖励后会试探性减少贡献,表现出"得寸进尺"的行为模式;而认为对象是人类时则保持稳定贡献。这种差异在奖惩并用条件下消失,说明惩罚的威慑作用阻止了被试对机器合作者的机会主义试探。

在讨论部分,研究者指出这项发现具有重要的理论和实践价值。与既往通过"拟人化"策略(如赋予机器人类外貌或情感表达)来缓解人机隔阂的尝试不同,本研究证明简单的制度设计——即同时提供奖励和惩罚机制——就能有效消除人类对机器合作者的偏见。这种方法的优势在于无需牺牲算法透明度,符合AI伦理规范的要求。

研究还探讨了发现在混合人机环境中的应用前景。在社交媒体等真实场景中,当无法确定交互对象是人类还是机器时,单独使用奖励可能是最优选择;而当需要特别促进人机协作时,奖惩并用的组合策略最为有效。这些发现为平台治理和人机交互设计提供了精细化的政策工具。

该研究的局限性包括依赖实验性欺骗方法,以及尚未探索不同激励结构参数的影响。未来研究可进一步探讨机器行为策略对人机合作的影响,以及奖惩机制在不同文化背景下的普适性。总体而言,这项研究为人机协作这一跨学科领域提供了重要的实证基础和行为洞见。

相关新闻
生物通微信公众号
微信
新浪微博
  • 急聘职位
  • 高薪职位

知名企业招聘

热点排行

    今日动态 | 人才市场 | 新技术专栏 | 中国科学人 | 云展台 | BioHot | 云讲堂直播 | 会展中心 | 特价专栏 | 技术快讯 | 免费试用

    版权所有 生物通

    Copyright© eBiotrade.com, All Rights Reserved

    联系信箱:

    粤ICP备09063491号