数据独立生成的目标通用对抗性扰动
《Knowledge-Based Systems》:Data-Independent Generation of Targeted Universal Adversarial Perturbations
【字体:
大
中
小
】
时间:2025年10月24日
来源:Knowledge-Based Systems 7.6
编辑推荐:
针对数据独立场景下通用对抗样本生成效率低的问题,本文提出基于GAN的DITU框架。通过构建多模型判别器梯度聚合机制,优化生成器输入噪声,合成高质量语义丰富的源图像。实验表明,DITU在RN50-DN121-VGG16模型集上达到71.08%的TFR,较基线提升19.8%,且在ResNet152和WideRes50上目标转移成功率分别提高18.4%和21.16%。该方法同时保持跨任务鲁棒性,对YOLOv5检测精度降低65-70%,且有效对抗经过鲁棒性训练的模型。
深度学习模型在众多任务中得到了广泛应用,然而它们对精心构造的对抗样本仍然表现出脆弱性。对抗样本是指通过在原始输入上添加微小扰动,使模型产生错误预测的样本。这种脆弱性不仅存在于图像识别领域,也在音频处理等其他领域被观察到。例如,语音命令识别系统可能被通用扰动误导。因此,研究如何有效生成对抗样本,提高其在不同模型间的迁移能力,成为保障深度学习模型安全的重要课题。
在现有的对抗攻击方法中,通用对抗扰动(Universal Adversarial Perturbations, UAPs)因其能够在不依赖具体模型的情况下,对多个模型产生影响而受到广泛关注。然而,传统的UAP生成方法往往依赖于特定的样本,这限制了它们的通用性。此外,许多方法需要访问原始训练数据或代理数据集,这在实际应用中可能面临数据获取困难或隐私保护的问题。为此,研究者们提出了数据独立的对抗攻击方法,利用合成数据或高斯采样数据来替代原始数据,从而降低对数据集的依赖并提高攻击的可扩展性。
本文提出了一种基于生成对抗网络(GAN)的框架,称为DITU,专门用于在数据独立场景下生成有针对性的通用对抗扰动。DITU的核心思想是通过生成器模型合成高质量且多样化的源图像,并结合多模型集成训练策略,聚合多个判别器的梯度信息,以确保模型响应的一致性并减少模型间的差异。这种设计不仅提升了对抗样本的迁移能力,还增强了其在不同模型间的泛化效果。
生成器在DITU框架中扮演了至关重要的角色。通过优化生成器的输入噪声,可以生成结构丰富、语义清晰的图像,从而提高对抗样本的质量和有效性。与传统的数据独立攻击方法相比,DITU能够学习与目标特征对齐的表示,使得生成的扰动更具针对性和破坏性。同时,生成器的噪声优化过程能够确保对抗样本在结构和语义层面保持完整性,从而避免因特征缺失导致的攻击失败。
为了进一步提升攻击的稳定性和一致性,DITU引入了梯度聚合策略。该策略通过融合多个判别器的梯度信息,使得模型在训练过程中能够更有效地调整扰动参数和生成器输入。这种方法不仅有助于稳定优化过程,还能够增强黑盒攻击的效果,因为多个判别器的梯度信息可以提供更全面的反馈,从而指导生成器生成更具破坏性的对抗样本。
实验结果显示,DITU在多个数据集和模型架构上均表现出色。在十种不同的针对性攻击设置下,DITU在RN50–DN121–VGG16模型集成中实现了71.08%的针对性攻击成功率(Target Fooling Rate, TFR),显著优于51.27%的基线方法(SMAML)。此外,DITU在ResNet152和WideRes50模型上的针对性攻击迁移能力分别提高了18.4%和21.16%。这些结果表明,DITU在提升对抗样本的迁移能力方面具有明显优势。
除了针对性攻击,DITU在非针对性攻击(Untargeted Fooling Rate, UTFR)方面也表现出色,其攻击成功率超过了现有方法。更重要的是,DITU生成的扰动不仅适用于图像分类任务,还能迁移到其他任务,如目标检测和语义分割。实验表明,DITU对YOLOv5目标检测模型的mAP50指标造成了65–70%的性能下降,同时增加了4–5倍的误报率。这说明DITU的扰动具有较强的跨任务迁移能力,能够对多种模型产生影响。
此外,DITU在对抗鲁棒性训练的模型上依然保持了较高的攻击成功率。在ε≤16的约束下,DITU在SIN-IN和AugMix模型上的针对性攻击成功率分别达到了66%和48.46%。这表明,即使模型经过一定的鲁棒性训练,DITU仍然能够有效生成对抗样本,对模型的预测结果造成干扰。同时,DITU在视觉Transformer(ViT)等模型上的表现也十分优异,特别是在多异构模型集成的情况下,其迁移能力得到了进一步增强。
综上所述,DITU框架通过引入生成器模型和多模型集成训练策略,成功解决了传统数据独立攻击方法在特征表示和迁移能力方面的不足。其生成的对抗样本不仅在结构和语义层面保持完整性,还能够有效迁移至不同模型和任务,从而提升了攻击的广度和深度。这些成果对于理解和评估深度学习模型的安全性具有重要意义,同时也为未来对抗攻击的研究提供了新的思路和方法。
本文的研究不仅关注于对抗样本的生成,还探讨了其在不同场景下的应用效果。在实际应用中,模型的架构和训练数据往往是不可知的,因此增强对抗样本的迁移能力对于评估模型的鲁棒性至关重要。DITU通过生成高质量的源图像和优化输入噪声,能够在没有原始数据的情况下,生成有效的对抗样本,从而更好地模拟真实攻击场景。这种能力对于黑盒攻击的评估尤为重要,因为它允许攻击者在不访问模型内部结构的情况下,对模型进行有效的测试和评估。
值得注意的是,尽管DITU在多个方面取得了显著进展,但其在复杂跨域场景下的有效性仍需进一步研究。例如,在不同领域的数据之间(如图像与文本、图像与音频)进行对抗样本迁移,可能会面临更多的挑战。因此,未来的研究可以探索如何进一步优化生成器模型,使其能够适应更广泛的数据类型和应用场景。此外,还可以研究如何结合其他技术,如迁移学习和自适应优化,以提升对抗样本在跨域环境中的迁移能力。
从方法论的角度来看,DITU的提出为对抗攻击领域提供了一个新的研究方向。通过结合生成对抗网络和多模型集成训练策略,DITU不仅提高了对抗样本的质量,还增强了其在不同模型间的迁移能力。这种方法的灵活性和可扩展性使其能够应用于多种任务和数据类型,从而为对抗攻击的多样化发展奠定了基础。同时,DITU的成功也表明,生成对抗网络在对抗攻击领域具有广阔的应用前景,未来的研究可以进一步探索其在其他任务中的表现。
在实验设计方面,本文采用了多种评估指标,包括针对性攻击成功率、非针对性攻击成功率以及跨任务迁移效果。这些指标能够全面反映对抗样本的有效性和迁移能力,为后续研究提供了可靠的参考依据。此外,本文还通过消融实验,验证了生成器在提升攻击成功率和迁移能力中的关键作用。这些实验不仅证明了DITU方法的优越性,也为理解对抗攻击的机制提供了新的视角。
总体而言,DITU框架在数据独立对抗攻击领域展现出了强大的潜力。它不仅能够生成高质量的对抗样本,还能够有效提升其在不同模型间的迁移能力。这些成果对于推动对抗攻击技术的发展具有重要意义,同时也为深度学习模型的安全评估提供了新的工具和方法。未来的研究可以进一步优化DITU框架,探索其在更复杂场景下的应用效果,并结合其他技术,提升对抗样本的泛化能力和攻击效果。
生物通微信公众号
生物通新浪微博
今日动态 |
人才市场 |
新技术专栏 |
中国科学人 |
云展台 |
BioHot |
云讲堂直播 |
会展中心 |
特价专栏 |
技术快讯 |
免费试用
版权所有 生物通
Copyright© eBiotrade.com, All Rights Reserved
联系信箱:
粤ICP备09063491号