利用边缘特征增强分布式机器学习中可迁移对抗攻击的研究

【字体: 时间:2025年10月12日 来源:Internet of Things 7.6

编辑推荐:

  本文深入探讨了分布式机器学习(DML)中因模型分割(Partitioned DNN)而产生的新型安全威胁。研究揭示,攻击者即使无法访问边缘(Edge)或云端(Cloud)模型内部(黑盒,Black-Box),仅通过拦截传输的中间特征(Intermediate Features),也能构建高精度的代理模型(Surrogate Model),从而极大提升对抗样本(Adversarial Examples)的可迁移性(Transferability)和攻击成功率(Attack Success Rate)。这项工作为分布式人工智能(AI)系统,特别是边缘人工智能(Edge AI)和物联网(IoT)环境的安全设计敲响了警钟。

  
亮点
相关工作与动机
本节从两个互补的视角回顾了相关工作。首先,我们审视了分布式边缘人工智能(Edge AI)系统更广泛的安全挑战;其次,我们重点关注规避攻击(Evasion Attacks)以及代理模型(Surrogate Models)在增强黑盒(Black-Box)对抗策略中的作用。
背景与威胁模型
本节介绍了在分区深度神经网络(Partitioned DNNs)场景和规避攻击(Evasion Attacks)中讨论方法论所需的 formalism。随后,它形式化了所提出威胁模型的重要属性和假设。
利用漏洞
为了应对第一个挑战并从攻击者的视角重建原始特征形状,第4.1节介绍了一种基于协方差矩阵分析的高效且有效的方法。通过收集一批被拦截的特征传输数据,可以估计特征的空间结构,从而可靠地重建中间特征张量。第二个挑战在第4.2节中通过引入一个 adaptation block 得到解决,该模块允许...
实验
在实验的第一部分(第5.2节),我们评估了利用第4.1节介绍的基于协方差的分析,及时准确地估计在边缘生成的中间特征形状的能力。在实验评估的第二部分,我们研究了特征蒸馏(Feature Distillation)对训练代理模型(Surrogate Model)的影响。为此,我们比较了多种先进攻击方法的有效性,具体细节在每项评估中给出。
结论与未来方向
这项工作探索了基于代理模型(Surrogate Models)的可迁移攻击(Transferable Attacks)在一个新颖且日益重要的场景下的前景:分布式人工智能(AI)范式和人工智能-物联网(AI-IoT)系统,例如分割协同学习(Split Collaborative Learning)。在此设定下,假设攻击者能够访问模型在边缘(Edge)和云端(Cloud)组件之间传输的中间特征(Intermediate Features)。通过拦截这些数据,攻击者可以显著提高用于可迁移规避(Transferable Evasion)攻击的代理模型的有效性。
相关新闻
生物通微信公众号
微信
新浪微博
  • 急聘职位
  • 高薪职位

知名企业招聘

热点排行

    今日动态 | 人才市场 | 新技术专栏 | 中国科学人 | 云展台 | BioHot | 云讲堂直播 | 会展中心 | 特价专栏 | 技术快讯 | 免费试用

    版权所有 生物通

    Copyright© eBiotrade.com, All Rights Reserved

    联系信箱:

    粤ICP备09063491号