公平感知的差分隐私:一种公平比例的噪声机制
《IEEE Transactions on Dependable and Secure Computing》:Fairness-Aware Differential Privacy: A Fairly Proportional Noise Mechanism
【字体:
大
中
小
】
时间:2025年12月12日
来源:IEEE Transactions on Dependable and Secure Computing 7.5
摘要:
差分隐私(DP)是统计分析和学习中保护隐私的主要范式。传统的DP机制独立于原始数据添加噪声,这会导致不同群体之间的扰动不一致,并在下游的决策和学习任务中引发公平性问题。以往的研究通常通过偏差和方差来评估公平性,但忽略了噪声的方向和底层查询的规模。我们提出了一种新颖的“公平比例噪声机制”(FPNM),该机制独特地考虑了噪声相对于原始查询结果的方向和大小。我们为不公平性定义了数学公式,同时考虑了权重和时间衰减因素,以允许不公平性进行非线性放大。隐私分析显示,不公平性与隐私强度之间存在负相关关系:更高的隐私级别会导致更多的噪声,从而增加不公平性。然后,我们使用平均不公平性和弗罗贝尼乌斯范数(Frobenius norm)对群体层面的公平性进行评估。我们还证明了在数据独立的可行范围内进行自适应预算重新分配可以保持整体的(?, δ)-DP保证。在决策和学习任务上的实验表明,该方法能够持续提升公平性。在决策任务中,所提出的FPNM有效减少了不公平性,在Frobenius范数和平均不公平性方面分别实现了19.17%和17.32%的降低。在学习任务中,将FPNM与DP-SGD结合使用,可以获得与注重公平性的基线方法相当的水平,并且准确率更高。此外,在成员推断攻击下,实证隐私性仍然得以保持。这些结果凸显了该方法在提高效率的同时保护隐私的有效性,为增强DP中的公平性提供了一种稳健且全面的方法。
生物通微信公众号
生物通新浪微博
今日动态 |
人才市场 |
新技术专栏 |
中国科学人 |
云展台 |
BioHot |
云讲堂直播 |
会展中心 |
特价专栏 |
技术快讯 |
免费试用
版权所有 生物通
Copyright© eBiotrade.com, All Rights Reserved
联系信箱:
粤ICP备09063491号