古德哈特定律有例外情况吗?论公平意识机器学习的道德正当性
《ACM Journal on Responsible Computing》:Are There Exceptions to Goodhart's law? On the Moral Justification of Fairness-Aware Machine Learning
【字体:
大
中
小
】
时间:2025年11月08日
来源:ACM Journal on Responsible Computing
编辑推荐:
公平机器学习(fair-ml)技术通过优化约束实现预测性能与公平性的平衡,但其可能违背Goodhart定律导致道德风险。本文提出道德推理框架,分析公平指标与结果公平性的关联,揭示现有算法(如Hardt等人的模型)在约束公平性时无法实现预期公平效果,甚至可能加剧群体伤害。
摘要
公平感知的机器学习(fair-ml)技术是一种算法干预措施,旨在确保受到机器学习模型预测影响的个体得到公平对待。这一问题通常被构建为一个优化问题,其目标是在定量公平性约束下实现高预测性能。然而,任何设计公平-ml算法的尝试都必须假设一个“古德哈特定律”(Goodhart’s law)存在例外情况的世界:当公平性度量成为优化约束时,它并不会失去作为有效度量的作用。在本文中,我们认为公平性度量对古德哈特定律特别敏感。我们的主要贡献如下:首先,我们提出了一个关于公平性指标合理性的道德推理框架。与现有工作不同,我们的框架认为结果分布的公平性不仅取决于不平等的原因,还取决于决策主体为获得某种利益或避免某种负担所依据的道德主张。我们利用该框架来明确在何种道德和实证假设下,特定的公平性指标才能对应于公平的结果分布。其次,我们探讨了在公平-ml算法中采用公平性指标作为约束的道德合理性,以Hardt等人提出的公平-ml算法[21]为例进行了说明。我们指出,通过公平-ml算法强制执行公平性指标往往无法实现最初期望的公平结果分布,甚至可能损害该干预措施旨在保护的个体。
生物通微信公众号
生物通新浪微博
今日动态 |
人才市场 |
新技术专栏 |
中国科学人 |
云展台 |
BioHot |
云讲堂直播 |
会展中心 |
特价专栏 |
技术快讯 |
免费试用
版权所有 生物通
Copyright© eBiotrade.com, All Rights Reserved
联系信箱:
粤ICP备09063491号