福利AI系统的价值错位:福利申领者与非申领者在人工智能应用中的异质性偏好与认知不对称

【字体: 时间:2025年07月30日 来源:Nature Communications 14.7

编辑推荐:

  本研究针对福利AI系统在决策速度与准确性之间的权衡问题,通过美国(N=987)和英国(N=1462)的大样本实验,揭示了福利申领者与非申领者存在系统性偏好差异:申领者普遍对AI更抵触(平均差异5.9-5.7分),且非申领者会高估申领者对速度-准确性权衡的接受度(偏差4.2-6.4分)。研究采用混合实验设计(含联合分析),发现公众平均接受1周速度提升换取2.4%-5%准确率损失,但群体间存在显著异质性。该成果为政府AI系统设计提供了关键实证依据,表明现行基于整体数据的校准可能忽视最脆弱群体的真实需求。

  

当政府机构开始用AI算法审核福利申请时,一个看似简单的技术升级却引发了深层伦理困境:机器确实能更快发放救济金,但错误拒绝率也随之上升。这种"速度换准确率"的权衡,对等待救命钱的低收入者意味着什么?最新研究发现,政策制定者可能严重误判了最脆弱群体的真实诉求——因为能准确理解对方立场的,只有福利申领者自己。

来自马克斯·普朗克人类发展研究所(Max Planck Institute for Human Development)的Mengchen Dong团队在《Nature Communications》发表的研究,通过美英两国3249人的系列实验,首次量化了福利AI系统中存在的双重不对等:需求层面的偏好差异,和认知层面的理解偏差。研究人员采用阶梯式实验设计,先通过美国代表性样本(N=987)建立基准,再以英国全民信贷(Universal Credit)为案例进行平衡抽样(N=1462),最后用联合分析法(N=800)验证结果的稳健性。关键技术包括:1)多国混合样本的对比研究设计;2)速度(1-6周)与准确率(5%-30%错误拒绝)的36种组合评估;3)带经济激励的视角采信实验;4)政府信任度的并行测量。

异质性偏好:被平均掩盖的群体差异
研究首先揭示公众整体接受度:美国人愿用2.4%准确率换取1周提速,英国人接受度更高(5%)。但

数据显示,申领者对所有36种AI配置的接受度均显著更低(p<0.001)。这种差异在极端情况下达12.8分——相当于非申领者能接受20%错误率时,申领者连10%都难以容忍。更关键的是,这种抵触与政府信任度下降显著相关(r=0.77-0.84)。

认知不对称:单向的理解鸿沟

实验要求双方预测对方选择,即使提供经济激励,非申领者仍持续高估申领者接受度(偏差+6.4分,p<0.001),而申领者预测相对准确(偏差-0.9分,不显著)。这种"理解鸿沟"在联合分析中进一步显现:非申领者错误认为申领者更看重速度(偏差+8.2分,p=0.006),却忽视其对准确率的敏感度(偏差+4.9分,p=0.037)。

政策校准的警示
研究指出当前AI系统设计的根本矛盾:决策依赖的"大众偏好"可能完全偏离直接受影响群体的真实需求。当非申领者(通常占人口多数)主导舆论时,其认知偏差会导致政策双重偏离——既高估弱势群体对效率的容忍度,又低估错误决策对他们的毁灭性影响。作者建议建立"申领者参与机制",在AI校准中赋予脆弱群体否决权,而非仅参考整体调研数据。

这项研究为算法治理提供了新的伦理维度:在技术性能权衡之外,必须考量"谁的理解更接近真相"。正如研究者强调的,当AI应用于资源分配时,最需要倾听的,往往是最难被听见的声音。论文中揭示的认知不对称现象,可能普遍存在于医疗、司法等存在权力不对等的AI应用场景,这为后续研究开辟了新的方向。

相关新闻
生物通微信公众号
微信
新浪微博
  • 急聘职位
  • 高薪职位

知名企业招聘

热点排行

    今日动态 | 人才市场 | 新技术专栏 | 中国科学人 | 云展台 | BioHot | 云讲堂直播 | 会展中心 | 特价专栏 | 技术快讯 | 免费试用

    版权所有 生物通

    Copyright© eBiotrade.com, All Rights Reserved

    联系信箱:

    粤ICP备09063491号