透明度的迷思:算法管理中的公平感知研究
《Business & Information Systems Engineering》:Transparency Fallacy: Perceived Fairness in Algorithmic Management
【字体:
大
中
小
】
时间:2025年09月27日
来源:Business & Information Systems Engineering 10.4
编辑推荐:
本研究针对算法管理(AM)在数字劳动平台(DLPs)中存在的透明度和公平性问题,通过组织公正理论(OJT)框架,设计了4×1受试间实验,探究不同透明度类型(分配透明、信息透明及其组合)对工作者公平感知的影响。结果表明,分配透明度能显著提升分配公平感知,而信息透明度对信息公平感知无显著影响。技术亲和度与人机信任虽不具调节作用,但是公平感知的重要预测因子。这项发表于《Business & Information Systems Engineering》的研究为优化算法管理设计提供了重要启示。
在数字化浪潮席卷全球的今天,算法管理(Algorithmic Management, AM)正悄然改变着我们的工作方式。从网约车司机到众包平台上的自由职业者,成千上万的工作者正通过数字劳动平台(Digital Labor Platforms, DLPs)接受算法的调度、评估与管理。这种新型管理模式虽然带来了效率的提升和成本的优化,却也埋下了隐患:算法如同一个神秘的黑箱,其决策过程往往不透明,使得工作者难以理解任务分配的逻辑、报酬计算的依据,甚至绩效评估的标准。这种不透明性极易引发工作者对算法公平性的质疑,进而影响他们的工作体验和平台忠诚度。尽管现有研究普遍认为提高算法透明度是增强公平感知的有效途径,但这一假设在算法管理这一特定情境下是否依然成立?不同类型的透明度措施又会如何影响工作者对公平的不同维度的感知?这些问题亟待深入探究。
为了解开这些谜团,来自德国班贝格大学和下莱茵应用技术大学的研究团队在《Business & Information Systems Engineering》上发表了一项题为“透明度的迷思:算法管理中的感知公平”的研究。他们基于组织公正理论(Organizational Justice Theory, OJT),精心设计了一项在线实验,旨在检验分配透明度(揭示报酬与贡献的关系)和信息透明度(解释算法功能与决策过程)对工作者公平感知的独立及联合影响。
研究人员首先通过一个操控性检验(N=119)确保了实验设计的有效性,证实了不同透明度条件确实被参与者差异性地感知。随后,主实验通过Prolific平台招募了234名DLP工作者,将他们随机分配到四个组:无透明度组(对照组)、分配透明度组、信息透明度组以及分配与信息透明度结合组。参与者在一个模拟的DLP上完成由模拟算法分配的任务,并随后填写测量其技术亲和度(Affinity for Technology Interaction, ATI)、人机信任(Human-Computer Trust Scale, HCTS)以及感知公平(包括整体公平、分配公平和信息公平)的量表。
研究结果出人意料。与假设H1a一致,提供分配透明度(即明确显示任务所需时间与对应积分)确实显著提升了工作者对分配公平(Distributive Fairness)的感知。然而,假设H1b未能得到支持,即提供信息透明度(即通过弹窗和信息框解释算法的匹配与控制功能)并未显著提升信息公平(Informational Fairness)的感知。同样,假设H1c也未获支持,同时提供两种透明度并未能带来整体公平感知的显著提升。此外,研究者假设的技术亲和度(H2a-c)和人机信任(H3a-c)对透明度与公平感知关系的调节作用也均未得到证实。但探索性分析发现,技术亲和度与人机信任本身与所有维度的公平感知均呈显著正相关,表明它们是公平感知的重要预测因子,而非调节因子。
本研究采用基于Wizard of Oz方法的在线实验设计,使用无代码工具Bubble.io自主开发了一个模拟数字劳动平台原型。通过Prolific平台招募符合条件的参与者(N=234),采用4×1受试间设计,将参与者随机分入不同透明度条件的实验组。利用LimeSurvey收集人口统计学数据、技术亲和度(ATI量表)、人机信任(HCTS量表)以及感知公平(基于OJT的量表)等定量数据,并辅以开放式问题收集定性反馈。数据分析综合运用了Kruskal-Wallis检验、Mann-Whitney U检验、Cohen's d效应量计算以及基于广义线性模型(GAMLj)的调节效应分析等方法。
定量分析显示,分配透明度对提升分配公平感知有显著效果(H1a支持),而信息透明度对信息公平感知无显著影响(H1b不支持),两种透明度的结合也未显著提升整体公平感知(H1c不支持)。这表明,在算法管理情境下,工作者更关注与自身利益直接相关的报酬分配信息,而非算法运作的内部过程。
调节效应分析表明,技术亲和度与人机信任均未显著调节透明度与公平感知之间的关系(H2a-c, H3a-c均不支持)。然而,相关分析揭示,技术亲和度(r=0.311, p<0.001)和人机信任(r=0.566, p<0.001)与整体公平感知均存在显著正相关关系,表明个人对技术的态度和信任水平是其评价算法公平性的重要基础,独立于平台提供的透明度水平。
对开放式问题的内容分析为定量结果提供了有力补充。许多参与者,尤其是未接收透明信息的对照组,表示因缺乏质疑依据而默认算法是公平的。接收透明信息的参与者则倾向于认为算法是客观、无偏的。参与者接受或拒绝任务的主要原因是个人兴趣和时间安排,而非对算法公平性的深度考量。这些发现暗示,在缺乏透明信息时,工作者可能基于对技术的一般信任而接受算法决策;而提供信息可能反而引发更多审视。
本研究挑战了“提高透明度必然提升公平感知”的传统观点,揭示了算法管理中透明度效果的复杂性。其重要意义在于:
- 1.理论贡献: 深化了对算法管理与组织公正理论的理解,指出在DLP特定情境下,透明度的作用有限,且公平感知强烈依赖于个体的技术态度和预存信任。这呼吁未来研究更关注个体差异和心理因素在人与算法互动中的作用。
- 2.实践启示: 为DLP开发者和管理者提供了重要参考。单纯增加算法过程的解释(信息透明度)可能收效甚微,甚至适得其反。相反,确保报酬分配的清晰透明(分配透明度)是提升工作者满意度的更直接途径。平台应避免“公平洗白”(fairwashing),并重视通过提升系统可靠性和易用性来建立和维护工作者信任。
- 3.政策考量: 对如欧盟《人工智能法案》等旨在规制算法透明度的政策制定具有启示意义。政策应超越“一刀切”的透明度要求,考虑不同情境下透明度的实际效果和工作者真正关切的问题,以制定更具针对性和实效性的法规。
总之,这项研究揭示了算法管理背景下“透明度迷思”的存在,强调实现算法公平不能仅靠技术层面的信息揭露,更需要关注工作者的个体认知、信任基础以及人机交互的整体体验。它为未来在数字时代构建更负责任、更人性化的算法管理系统指明了方向。
生物通微信公众号
生物通新浪微博
今日动态 |
人才市场 |
新技术专栏 |
中国科学人 |
云展台 |
BioHot |
云讲堂直播 |
会展中心 |
特价专栏 |
技术快讯 |
免费试用
版权所有 生物通
Copyright© eBiotrade.com, All Rights Reserved
联系信箱:
粤ICP备09063491号