FedSSuper:在可信监督下实现的安全且私密的联邦学习

《IEEE Transactions on Network Science and Engineering》:FedSSuper: A Secure and Private Federated Learning Under Trusted Supervision

【字体: 时间:2025年11月19日 来源:IEEE Transactions on Network Science and Engineering 7.9

编辑推荐:

  联邦学习面临拜占庭攻击和推理攻击的双重威胁,现有方法在拜占庭比例超过0.5时性能不足且未考虑非独立同分布数据。本文提出FedSSuper方案,通过服务器端部署影子数据集监督客户端训练以抑制拜占庭攻击,同时利用秘密共享安全多方计算保护客户端更新隐私,理论证明其安全性和鲁棒性,并在三组数据集上验证优于现有方法。

  

摘要:

联邦学习(FL)允许多个客户端和一台服务器共同学习一个全局模型,同时保持各自的训练数据隐私。然而,FL已被证明容易受到拜占庭式攻击的威胁:恶意客户端会向服务器提交误导性更新,以进一步操纵全局模型;此外,出于好奇的服务器可能会通过分析这些更新来推断客户端的训练数据,从而引发推理攻击。同时抵御这两种攻击极具挑战性——因为抵抗推理攻击需要禁止访问客户端的更新数据,而防止拜占庭式攻击则恰恰需要访问这些数据。现有的许多研究虽然关注这两种看似矛盾的问题,但在拜占庭比率大于0.5的情况下仍无法取得理想的效果,且未考虑非独立同分布(non-IID)数据,尤其是完全非独立同分布的情况。为此,我们提出了一种基于可信监督的安全隐私联邦学习方法(FedSSuper)。FedSSuper的原理是:服务器首先在客户端部署一个影子数据集,以监督客户端的本地训练过程,从而动态抑制恶意行为;同时,客户端通过基于秘密共享的安全多方计算(Secure P-Parties Computation)机制,监督服务器端对本地更新的汇总过程,以此抵御推理攻击。最后,我们从理论上证明了FedSSuper在抵御拜占庭式攻击和推理攻击、应对客户端退出情况以及实现合理的计算和通信复杂度方面的安全性和隐私性保障。在三个数据集上的广泛实验以及与七种现有防御机制的对比表明,FedSSuper在拜占庭比率高达0.7、数据非独立同分布程度为1.0的情况下,依然表现出色,也能有效应对精心设计的推理攻击。

引言

联邦学习(FL)是一种通信效率高且能保护隐私的机器学习方法,在许多实际应用中都有体现[1]、[2],例如Google在Gboard中的查询建议模型[3]、WeBank的信用风险预测模型[4]。它允许多个客户端(如物联网设备)在服务器的协调下协作学习全局模型,同时将训练数据保留在本地[5]。

相关新闻
生物通微信公众号
微信
新浪微博
  • 搜索
  • 国际
  • 国内
  • 人物
  • 产业
  • 热点
  • 科普
  • 急聘职位
  • 高薪职位

知名企业招聘

热点排行

    今日动态 | 人才市场 | 新技术专栏 | 中国科学人 | 云展台 | BioHot | 云讲堂直播 | 会展中心 | 特价专栏 | 技术快讯 | 免费试用

    版权所有 生物通

    Copyright© eBiotrade.com, All Rights Reserved

    联系信箱:

    粤ICP备09063491号