自动驾驶联邦学习模型对抗鲁棒性增强:基于对比学习与空间聚类的轻量级防御框架

【字体: 时间:2025年08月15日 来源:Knowledge-Based Systems 7.6

编辑推荐:

  本文提出CLEAR框架,通过整合对抗训练(AT)、监督对比学习(SCL)和基于Wasserstein距离的空间鲁棒聚合,显著提升自动驾驶联邦学习(FL)对模型投毒(MPAs)和对抗样本的防御能力。创新性采用Wasserstein-PGD生成对抗样本,扩展MOON算法实现特征对齐,在CIFAR-10等数据集上验证了其在非独立同分布(non-IID)数据下的优越性能,为安全自动驾驶提供新范式。

  

亮点

• 提出新型拜占庭弹性联邦学习轻量级框架CLEAR,通过识别良性系统并聚合本地模型更新,有效抵御复杂模型投毒攻击(MPAs),显著减轻非独立同分布(non-IID)数据对联邦学习的负面影响。

• 开发创新算法优化联邦场景下的对抗训练(AT),针对IID和非IID数据提出部分对抗训练策略,在降低计算复杂度的同时保持模型鲁棒性。采用基于Wasserstein度量的PGD攻击生成对抗样本,突破传统?p范数限制。

• 首次在联邦学习中探索部分对抗训练效果,系统分析其在不同数据分布下的挑战特性。

• 扩展MOON本地目标函数,新增对抗监督对比学习(SCL)策略,通过增强干净样本与对抗样本在特征空间的相似性距离,提升模型对抗鲁棒性和类别判别能力。

• 将预训练模型融入联邦防御体系,构建通信成本显著降低的轻量级框架。

• 在CIFAR-10和GTSRB等基准数据集上开展全面评估,通过准确率和训练时间等指标验证防御有效性。

结论与未来工作建议

联邦学习为分布式客户隐私保护提供可行方案,但现有防御机制难以应对模型参数高维性和数据异构性挑战。本研究通过三阶段防御框架——预训练防御、鲁棒对抗训练结合对比学习、空间鲁棒聚合,成功提升联邦学习在对抗环境和非IID数据下的性能。未来将探索防御机制与自动驾驶感知系统的深度融合,并优化Wasserstein距离计算效率。

(注:严格保留原文技术术语如PGD、IID等中英对照,使用标注下标,去除文献引用标记[XX],符合生命科学领域表述规范)

相关新闻
生物通微信公众号
微信
新浪微博
  • 急聘职位
  • 高薪职位

知名企业招聘

热点排行

    今日动态 | 人才市场 | 新技术专栏 | 中国科学人 | 云展台 | BioHot | 云讲堂直播 | 会展中心 | 特价专栏 | 技术快讯 | 免费试用

    版权所有 生物通

    Copyright© eBiotrade.com, All Rights Reserved

    联系信箱:

    粤ICP备09063491号