AI面试中的公平性博弈:数字素养、解释机制与人机交互的协同效应

【字体: 时间:2025年09月08日 来源:International Journal of Human-Computer Studies 5.1

编辑推荐:

  本文基于组织公平理论(Organizational Justice Theory),通过两阶段实验设计(Study 1, N=113;Study 2, N=206)系统探讨AI面试全流程中的公平感知。研究发现:候选人AI素养(AI Literacy)、人机协同决策(Human-in-the-loop)和积极结果能持续提升公平感知,但系统设计(如高交互性和解释机制)对程序公平(Procedural Justice)与分配公平(Distributive Justice)存在差异化影响,揭示了面试体验与结果评估间的微妙平衡。

  

Highlight

AI面试公平性框架:程序正义与分配正义的博弈

基于组织公平理论(Organizational Justice Theory),我们构建了AI面试的双维度分析框架:程序公平(Procedural Justice)关注面试流程设计的合理性,如AI解释机制和交互水平;分配公平(Distributive Justice)聚焦决策结果的公正性,如算法与人类决策者的权重分配。研究发现这两个维度存在"跷跷板效应"——增强程序公平的设计可能削弱分配公平感知。

Method

高保真模拟实验设计

研究采用异步视频面试模拟系统,通过2×2因子设计操纵关键变量:解释机制(有/无)、交互水平(高/低),并在决策阶段加入结果(通过/淘汰)和决策代理(100%AI vs. 50%AI+50%人)变量。通过眼动追踪和面部表情分析(Facial Action Coding System)捕捉候选人的实时反应,建立多维度公平性评估体系。

Descriptive Statistics and Manipulation Check

交互水平操纵验证

交互水平操纵成功(F(1,112)=13.1, p<.001),高交互组(Mhigh=3.54, SD=0.96)显著优于低交互组(Mlow=2.68, SD=1.12)。有趣的是,AI解释机制虽提升流程透明度,却导致落选者产生更强烈的分配不公感,形成"解释悖论"现象。

Discussion

公平感知的动态拼图

研究发现公平感知是动态建构的过程:AI素养是基础拼图,人机协同(Human-in-the-loop)充当稳定器,而系统设计则是双刃剑。高交互AI虽增强程序公平(β=0.42, p<.01),但拟人化特征会提高预期,当结果不符时加剧分配不公平感(ΔR2=.17)。这提示需要"全旅程设计"思维平衡体验与结果。

Conclusion

迈向负责任的AI招聘

研究表明,公平的AI面试系统需要:1) 提升候选人数字素养(Digital Literacy)2) 优化解释机制设计 3) 保持适度拟人化 4) 建立人机协同决策机制。未来的智能招聘系统应当像"透明的水晶球"——既展现决策逻辑,又不过度承诺。

相关新闻
生物通微信公众号
微信
新浪微博
  • 急聘职位
  • 高薪职位

知名企业招聘

热点排行

    今日动态 | 人才市场 | 新技术专栏 | 中国科学人 | 云展台 | BioHot | 云讲堂直播 | 会展中心 | 特价专栏 | 技术快讯 | 免费试用

    版权所有 生物通

    Copyright© eBiotrade.com, All Rights Reserved

    联系信箱:

    粤ICP备09063491号