AMF-CFL:基于聚类的异常模型过滤方法在联邦学习中的应用

《Journal of Information Security and Applications》:AMF-CFL: Anomaly model filtering based on clustering in federated learning

【字体: 时间:2026年02月05日 来源:Journal of Information Security and Applications 3.7

编辑推荐:

  联邦学习在非独立同分布数据下易受恶意攻击影响,现有防御机制性能受限。本文提出AMF-CFL算法,通过多k均值聚类识别异常更新模式,结合z-score统计分析筛选良性更新,有效应对四类无目标攻击和两类定向攻击,在MNIST和Fashion-MNIST数据集上验证了全局模型收敛性和鲁棒性。

  
王波|戴晓瑞|王伟|杨子|王照宁|张茂珍
中国大连理工大学信息与通信工程学院

摘要

联邦学习(FL)允许多个参与者在不暴露本地数据的情况下协同训练共享模型,从而降低数据泄露的风险。尽管联邦学习具有诸多优势,但它容易受到恶意客户的攻击。现有的防御机制在独立同分布(i.i.d.)环境下有效,但在非独立同分布(non-i.i.d.)场景下,由于客户端数据分布的不同,防御效果往往会下降。为了解决这一限制,我们提出了AMF-CFL,这是一种专为非独立同分布条件下的联邦学习设计的强大聚合算法。AMF-CFL通过两步过滤策略减少恶意更新的影响:首先应用多k均值聚类来识别异常更新模式,然后通过z分数统计分析来筛选出良性更新。针对四种无针对性和两种针对性攻击类型的综合评估表明,AMF-CFL能够有效保持全局模型的完整性和鲁棒性,在具有挑战性的联邦学习环境中提供可靠的防御。

引言

近年来,联邦学习作为一种新的分布式机器学习范式受到了广泛关注[1],[2],[3],[4],[5]。传统的机器学习通常使用集中式数据进行模型训练。然而,在现实世界中,数据可能分布在不同的机构中,如医疗或金融领域[2],[6],[7]。在联邦学习中,用户使用私有数据训练本地模型若干轮。客户端将本地模型更新共享给中央服务器,中央服务器汇总所有客户的更新以更新全局模型,然后再将其分发给参与客户。这个迭代过程重复多次,最终得到全局模型[8],[9],[10]。联邦学习的分布式特性虽然备受关注,但也使其极易受到恶意参与者的攻击。
在联邦学习中,恶意客户的存在构成了严重的安全威胁。表现出拜占庭行为的恶意参与者可以操纵分布式训练过程,破坏最终的全局模型。即使是一个拜占庭错误也可能对训练模型造成重大威胁[11],[12]。除了拜占庭模型错误外,后门攻击也对模型安全构成威胁。恶意客户可以在不影响主要任务的情况下注入后门任务[13],[14],[15],[16],[17]。在模型聚合过程中,后门任务会被注入到全局模型中。因此,设计能够抵御恶意攻击的强大聚合算法至关重要。许多恶意攻击需要将恶意因素注入恶意更新中以放大其影响,而这取决于恶意客户的数量。现有的联邦学习防御机制主要分为两类:一类是强大的聚合算法[18],[19],[20],[21],[22],用于检测和拒绝恶意权重;另一类是认证防御[23],[24],涉及在客户端或服务器端使用辅助数据集进行验证。然而,认证防御可能会违反联邦学习的隐私设置,导致客户端本地信息泄露。在前一类方法中,Krum[19]、TrimmedMean[20]和Median[20]等算法以其仅依赖统计特性的防御机制而闻名。然而,这也促使了针对这些算法的拜占庭攻击算法的发展[25]。
尽管有许多防御算法,但联邦学习的数据异构性会影响这些算法的性能。数据异构性会导致模型更新偏离最优方向或步骤。例如,来自不同国家的用户可能使用不同的语言,因此即使在类似下一个词预测[9],[26]和自动驾驶[27]这样的任务中,不同地区收集的私有数据分布也会存在差异。这是我们关注的问题之一。
为了减轻数据异构性对联邦学习防御算法性能的影响,我们提出了基于聚类的异常模型过滤算法(AMF-CFL)。该算法通过异常客户端过滤来对客户端模型参数进行聚类。AMF-CFL使用修剪后的全局模型作为正确或错误的更新方向,通过计算余弦相似度来衡量模型更新之间的角度差异,从而有效抵御拜占庭攻击。随后,我们使用多类分类筛选潜在的恶意更新,并通过z分数进一步分析异常更新,最终得到良性模型簇。我们在两个非独立同分布的数据集上对我们的方法进行了评估,这些数据集受到了各种拜占庭攻击和针对性攻击的测试。结果表明,我们的方法能够有效过滤拜占庭攻击,确保全局模型的收敛性和可用性。
我们总结本文的贡献如下:
  • 我们研究了非独立同分布数据下的联邦学习鲁棒聚合。实验结果表明,该算法通过聚类和异常值过滤有效过滤了恶意客户端,尤其是在存在放大因子的攻击情况下。
  • 我们提出使用全局模型更新的潜在方向和每个客户的更新梯度作为特征,以区分良性客户端和恶意客户端。
  • 我们使用四种无针对性攻击和两种针对性攻击验证了AMF-CFL的有效性。结果表明,该算法能够有效过滤异常模型更新,同时确保未经过滤的恶意模型更新不会对攻击产生影响。
  • 部分摘录

    联邦学习

    在联邦学习中,为了学习全局最优模型w*,需要进行T轮迭代。服务器S初始化全局模型w_0并将其发送给所有客户端[9]。在第t轮中,S将全局模型w_t发送给m个客户端。随后,客户端使用各自的私有数据在本地训练模型w_t_i,计算本地模型与之前全局模型之间的差异Δ_t,并将差异上传给服务器S。在第t轮中,

    框架

    我们提出的AMF-CFL旨在使用TrimmedMean方法确定更新方向,并帮助区分客户端模型更新。无论TrimmedMean方向是否正确,它总能得到与真实TrimmedMean更新方向一致或不一致的模型更新。通过多聚类将所有客户端划分为较小的簇,从而检测不同客户端之间的共同特征并过滤异常簇。

    实验设置

    FL设置。我们使用两个数据集(MNIST和Fashion-MNIST)进行了联邦学习测试。MNIST包含10个不同的数字标签(0到9),共有60,000张训练图像和10,000张测试图像。Fashion-MNIST包含10个不同的时尚类别(如连衣裙、衬衫和包),共有70,000张28×28大小的灰度图像,其中60,000张用于训练,10,000张用于测试。每次迭代中,我们使用了100个

    结论

    在本文中,我们研究了几种聚合算法在联邦学习(FL)中的应用。我们测试并评估了这些算法对模型替换攻击、标签翻转攻击和四种拜占庭攻击的防御效果。我们设计了一种基于多类分类的联邦学习过滤算法,旨在过滤非独立同分布数据中的潜在恶意攻击,从而得到良性更新簇。我们的算法还可以作为预处理步骤使用。

    CRediT作者贡献声明

    王波:项目管理。戴晓瑞:方法论。王伟:研究。杨子:数据整理。王照宁:形式分析。张茂珍:方法论。

    利益冲突声明

    作者声明他们没有已知的财务利益或个人关系可能影响本文所述的工作。
    相关新闻
    生物通微信公众号
    微信
    新浪微博
    • 搜索
    • 国际
    • 国内
    • 人物
    • 产业
    • 热点
    • 科普

    知名企业招聘

    热点排行

      今日动态 | 人才市场 | 新技术专栏 | 中国科学人 | 云展台 | BioHot | 云讲堂直播 | 会展中心 | 特价专栏 | 技术快讯 | 免费试用

      版权所有 生物通

      Copyright© eBiotrade.com, All Rights Reserved

      联系信箱:

      粤ICP备09063491号