利用边缘特征增强分布式机器学习中可迁移对抗攻击的研究
【字体:
大
中
小
】
时间:2025年10月12日
来源:Internet of Things 7.6
编辑推荐:
本文深入探讨了分布式机器学习(DML)中因模型分割(Partitioned DNN)而产生的新型安全威胁。研究揭示,攻击者即使无法访问边缘(Edge)或云端(Cloud)模型内部(黑盒,Black-Box),仅通过拦截传输的中间特征(Intermediate Features),也能构建高精度的代理模型(Surrogate Model),从而极大提升对抗样本(Adversarial Examples)的可迁移性(Transferability)和攻击成功率(Attack Success Rate)。这项工作为分布式人工智能(AI)系统,特别是边缘人工智能(Edge AI)和物联网(IoT)环境的安全设计敲响了警钟。
本节从两个互补的视角回顾了相关工作。首先,我们审视了分布式边缘人工智能(Edge AI)系统更广泛的安全挑战;其次,我们重点关注规避攻击(Evasion Attacks)以及代理模型(Surrogate Models)在增强黑盒(Black-Box)对抗策略中的作用。
本节介绍了在分区深度神经网络(Partitioned DNNs)场景和规避攻击(Evasion Attacks)中讨论方法论所需的 formalism。随后,它形式化了所提出威胁模型的重要属性和假设。
为了应对第一个挑战并从攻击者的视角重建原始特征形状,第4.1节介绍了一种基于协方差矩阵分析的高效且有效的方法。通过收集一批被拦截的特征传输数据,可以估计特征的空间结构,从而可靠地重建中间特征张量。第二个挑战在第4.2节中通过引入一个 adaptation block 得到解决,该模块允许...
在实验的第一部分(第5.2节),我们评估了利用第4.1节介绍的基于协方差的分析,及时准确地估计在边缘生成的中间特征形状的能力。在实验评估的第二部分,我们研究了特征蒸馏(Feature Distillation)对训练代理模型(Surrogate Model)的影响。为此,我们比较了多种先进攻击方法的有效性,具体细节在每项评估中给出。
这项工作探索了基于代理模型(Surrogate Models)的可迁移攻击(Transferable Attacks)在一个新颖且日益重要的场景下的前景:分布式人工智能(AI)范式和人工智能-物联网(AI-IoT)系统,例如分割协同学习(Split Collaborative Learning)。在此设定下,假设攻击者能够访问模型在边缘(Edge)和云端(Cloud)组件之间传输的中间特征(Intermediate Features)。通过拦截这些数据,攻击者可以显著提高用于可迁移规避(Transferable Evasion)攻击的代理模型的有效性。
生物通微信公众号
生物通新浪微博
今日动态 |
人才市场 |
新技术专栏 |
中国科学人 |
云展台 |
BioHot |
云讲堂直播 |
会展中心 |
特价专栏 |
技术快讯 |
免费试用
版权所有 生物通
Copyright© eBiotrade.com, All Rights Reserved
联系信箱:
粤ICP备09063491号