
-
生物通官微
陪你抓住生命科技
跳动的脉搏
AI评估如何重塑人类行为:基于12项研究的心理学机制与组织决策启示
【字体: 大 中 小 】 时间:2025年06月21日 来源:Proceedings of the National Academy of Sciences 9.4
编辑推荐:
这篇开创性研究揭示了AI评估对人类行为的系统性影响:当人们意识到被AI(而非人类)评估时,会显著增强分析性(analytical)特质呈现,弱化直觉与情感表达——这种现象被命名为"AI评估效应"。通过12项研究(N=13,342)证实,该效应源于人们普遍认为AI更重视分析能力(analytical priority lay belief)。研究为组织在人力资源(HR)管理中应用AI评估工具提供了关键警示,提示透明化政策可能意外扭曲评估效度(validity)。
Significance
AI评估正在替代人类决策者成为各领域的新裁判。这项研究揭示了一个关键问题:当人们知道被AI评估时,其行为表现会产生系统性变化。通过聚焦候选人选拔这一核心场景,研究发现AI评估会促使人们刻意展现更多分析性特质,因为他们普遍认为AI更看重这类特征。这种行为转变可能从根本上改变选拔结果,甚至威胁评估流程的有效性。
Abstract
随着AI评估工具在招聘、招生等场景的普及,政策法规要求组织披露AI使用情况(如欧盟AI法案)。12项研究(含4项补充研究)证实:相比人类评估,AI评估会引发"分析性特质优先"的自我呈现策略。这种现象源于人们对AI评估标准的固有认知——即AI更重视分析能力而非情感直觉。研究突破了既往对AI工具生产力的单一关注,首次系统揭示了评估主体变化引发的行为适应机制。
理论机制
基于印象管理理论(impression management theory),研究提出两个核心前提:1)评估情境会激发策略性自我呈现;2)人们会根据对评估者偏好的预判调整行为。通过探索性研究发现,求职者普遍认为算法评估更侧重分析维度(Mdn=5,P<0.001),且这种认知与行为调整程度显著相关(r=0.12,P<0.001)。
关键发现
Pilot Study
在真实招聘平台(Upwork)的现场实验中,AI评估组的自由职业者自我描述显著更偏向分析性(MAI=4.41 vs Mhuman=4.02,P=0.042)。
Study 1
在模拟大学入学场景中,AI评估使参与者报告更多分析性任务策略(MAI=6.00 vs Mhuman=5.59,P<0.001),同时减少直觉性策略(MAI=4.20 vs Mhuman=4.82,P<0.001)。中介分析证实"分析优先"信念是关键机制(间接效应banalytical=0.30,95%CI=[0.17,0.44])。
Study 3
采用两阶段混合设计发现:1)AI评估导致自我描述偏离"真实基线"(no-assessment条件)的程度(Δ=0.43)远超人类评估(Δ=0.18);2)若组织设定分析性阈值(如6分),27%的候选人仅能通过AI评估。
Study 4-5
通过激励相容的排序任务发现,AI评估组更倾向将"逻辑推理"等分析性特质排在首位(MdnAI=18 vs Mdnhuman=20,P<0.001)。采用"考虑对立面"干预(consider-the-opposite paradigm)可有效减弱该效应。
Study 6
在"AI初筛+人类终审"的混合模式下,行为调整强度介于纯AI与纯人类评估之间(Mdnjoint=19),表明人类介入仅能部分缓解AI评估效应。
实践启示
创新价值
首次系统量化AI作为评估主体引发的行为适应现象,为算法心理学(algorithmic psychology)开辟新研究方向。研究设计涵盖:
未来展望
建议探索:1)公共服务准入等新场景;2)创造力等非认知维度影响;3)生成式AI(generative AI)带来的评估范式变革。当前发现警示:在推进AI评估工具时,需同步开发行为校准机制。
生物通微信公众号
知名企业招聘