基于模拟模型的纵向联邦学习中标签与模型保护漏洞研究
《Neurocomputing》:Vulnerabilities of label and model protection in vertical federated learning based on simulation models
【字体:
大
中
小
】
时间:2025年10月27日
来源:Neurocomputing 6.5
编辑推荐:
本文提出了一种新型的纵向联邦学习(VFL)攻击方法VFLLIMA,通过模拟顶层模型实现高精度标签推断和细粒度性能操控,揭示了VFL在隐私保护(如中间梯度泄露真实标签)和模型安全方面的脆弱性。研究通过四大数据集验证了攻击有效性(CIFAR-10提升19.62%,CINIC-10准确率达99.93%),并探讨了现有防御策略的局限性,为医疗、金融等敏感领域的VFL安全应用敲响警钟。
我们首次系统分析了纵向联邦学习(VFL)中标签泄露与模型操控风险,在未知顶层模型结构的情况下,提出了高精度标签推断与细粒度操控攻击。
我们通过理论证明发现,中间梯度天然嵌入了真实标签信息,这为标签推断的有效性提供了依据。此外,我们训练了模拟模型来生成恶意底层模型输出,从而实现对模型性能的精准操控。
通过四大代表性数据集的广泛实验,VFLLIMA的有效性得到充分验证。与现有最优方法相比,该方法在CIFAR-10数据集上实现了19.62%的性能提升,在CINIC-10数据集上准确率高达99.93%。对现有防御机制的深入分析进一步揭示了其固有局限性。
VFLLIMA使恶意被动方能推断主动方的标签并操控模型输出。基于中间梯度蕴含标签信号的理论洞察,我们提升了恶意被动方精确推断私有标签的能力。在此基础上,恶意方可进一步通过模拟模型干扰预测结果,为未来构建安全可靠的VFL系统提供重要警示。
生物通微信公众号
生物通新浪微博
今日动态 |
人才市场 |
新技术专栏 |
中国科学人 |
云展台 |
BioHot |
云讲堂直播 |
会展中心 |
特价专栏 |
技术快讯 |
免费试用
版权所有 生物通
Copyright© eBiotrade.com, All Rights Reserved
联系信箱:
粤ICP备09063491号