基于进化多任务鲁棒性架构搜索的网络入侵检测方法
《Expert Systems with Applications》:Evolutionary multi-task robust architecture search for network intrusion detection
【字体:
大
中
小
】
时间:2025年07月17日
来源:Expert Systems with Applications 7.5
编辑推荐:
针对密集人群计数模型中关键区域对抗攻击的净化难题,本文提出BoostCount框架。通过预训练计数网络生成动态掩码,引导对抗扰动集中在人群密集区域,并利用条件扩散模型以图像到图像转换形式进行渐进式净化,有效消除攻击引入的噪声同时保持关键特征。实验表明该方法在MAE和RMSE指标上分别达到-465.00和-549.92,较基线方法提升223.40%。
在当前人工智能技术迅速发展的背景下,深度神经网络(DNN)在许多关键领域得到了广泛应用,包括智能城市管理和公共安全预警系统。然而,随着这些模型在实际场景中的重要性不断提升,它们的安全性问题也日益受到关注。特别是在密集人群计数任务中,由于模型需要处理高度密集且复杂的视觉信息,因此更容易受到对抗性攻击的影响。这些攻击通常通过在图像中注入微小但精心设计的扰动,使模型产生严重的预测偏差,从而威胁到系统的可靠性和安全性。因此,如何有效防御这类对抗性攻击,尤其是在关键区域,成为了一个亟待解决的问题。
对抗性攻击在密集人群计数任务中尤为危险,因为攻击者可以针对性地选择图像中的人群密集区域,如车站广场或活动入口等,以最小的改动诱导模型产生巨大的计数误差。这种攻击方式不仅对模型的准确性构成挑战,还可能在实际应用中造成严重后果,比如在安全监控系统中导致错误的警报或人员密度评估,从而影响公共安全。现有的对抗性防御方法在应对这类问题时存在诸多局限,尤其是在保持图像真实性和精确重建敏感区域方面。多数方法依赖于预先知道攻击类型,或者需要对模型进行额外的训练和调整,这不仅增加了计算成本,还可能导致模型对特定攻击场景的过度拟合,降低其在未知攻击下的泛化能力。
为了应对上述挑战,本文提出了一种基于条件扩散模型的对抗性净化框架,命名为BoostCount。该框架的核心思想是通过动态生成的掩码,将对抗性攻击集中在人群密集区域,从而更有效地识别和消除这些攻击对模型的影响。BoostCount首先利用一个预训练的计数网络生成动态掩码,这些掩码能够引导对抗性攻击的生成,使其更精准地针对关键区域。随后,这些对抗性样本被用作条件输入,通过扩散模型进行净化。这种方法不仅在对抗性攻击的检测和消除方面表现出色,还能够在不牺牲图像真实性的情况下,保留关键的视觉语义信息。
BoostCount的创新点在于其将对抗性防御问题转化为图像到图像的域转换过程。通过条件扩散模型,该框架能够在不重新训练模型的前提下,实现对对抗性样本的在线净化。这一机制避免了传统方法中常见的模型重训练和架构修改的繁琐过程,同时显著提升了对抗性防御的效率和效果。在实验过程中,BoostCount通过逐步恢复图像的原始状态,实现了对对抗性扰动的精准消除,同时保持了图像中关键特征的完整性。这种渐进式的恢复策略使得模型能够在多个不同的对抗性攻击场景中保持较高的鲁棒性,为智能监控系统等实际应用提供了可靠的解决方案。
本文的研究不仅在理论上拓展了对抗性防御的应用边界,也在实际应用层面为密集人群计数模型的安全性提供了新的思路。传统的对抗性净化方法往往采用全局统一的处理策略,这种方法在消除对抗性扰动的同时,可能会对图像中关键的密度特征造成不可逆的损害,特别是在高度敏感的区域,如人群头部和肩膀的分布。而BoostCount通过引入位置敏感的对抗性攻击机制,能够更精确地识别和处理这些关键区域,从而在不干扰正常图像信息的前提下,实现高效的对抗性防御。此外,BoostCount还结合了扩散模型的多尺度特征提取能力,使得模型在处理不同尺度的图像时,能够灵活地调整其净化策略,以适应各种复杂的场景需求。
在实验验证方面,BoostCount的表现优于当前主流的对抗性防御方法。通过对多个公开数据集的测试,该框架在保持图像视觉语义一致性的同时,显著提升了模型的鲁棒性。具体而言,在实验中,BoostCount将对抗性样本的计数误差降低了最多104.75,相较于传统方法提升了223.40%的净化效率。这一结果表明,BoostCount不仅能够有效应对已知的对抗性攻击,还具备强大的泛化能力,能够处理未知的攻击模式。此外,该框架的条件引导机制使其能够根据输入图像的特征动态调整净化策略,从而进一步提高其在不同场景下的适应性和准确性。
BoostCount的研究成果具有重要的实际意义。在智能城市管理和公共安全预警系统中,人群计数是实现有效监控和预警的关键环节。如果这些系统受到对抗性攻击的影响,可能会导致错误的人员密度估计,进而影响决策的准确性。BoostCount通过其高效的对抗性净化机制,能够在不改变原始模型结构的情况下,提升系统的安全性,确保其在复杂环境下的稳定运行。此外,该框架的可扩展性也为其他类似的对抗性防御任务提供了参考,例如在医疗影像分析、自动驾驶和人脸识别等领域,对抗性攻击同样是一个不可忽视的问题。
本文的研究还揭示了对抗性防御与生成模型之间潜在的协同关系。通过将对抗性样本作为生成条件,BoostCount利用扩散模型的特性,实现了对图像中对抗性扰动的精准识别和消除。这一方法不仅拓展了扩散模型在对抗性防御中的应用范围,还为未来的模型安全研究提供了新的方向。扩散模型本身具有强大的图像生成和修复能力,而BoostCount则通过条件引导的方式,使其能够更有效地应对对抗性攻击,从而在不依赖额外训练的情况下,提升模型的鲁棒性。
在方法论上,BoostCount的提出得益于对现有对抗性防御技术的深入分析。传统的防御方法通常依赖于梯度信息或特定的攻击类型,而BoostCount则通过动态生成的掩码,使对抗性攻击能够更精准地集中在关键区域。这种策略不仅提高了攻击的针对性,还增强了防御的效率。此外,BoostCount还引入了多尺度特征提取机制,使得模型能够在不同尺度上同时处理和修复图像中的扰动,从而在保持图像整体结构的同时,精准地恢复关键的密度特征。
BoostCount的实验结果表明,其在多个方面都优于现有的对抗性防御方法。首先,它在保持图像真实性的同时,显著降低了对抗性攻击对模型预测结果的影响。其次,其条件引导的净化策略使得模型能够根据不同的输入图像动态调整防御策略,从而提升了其在不同场景下的适应能力。最后,BoostCount通过其高效的净化机制,为智能监控系统等实际应用提供了可靠的安全保障,确保了在面对潜在攻击时,系统仍能提供准确的计数结果。
总的来说,BoostCount的研究成果为密集人群计数模型的对抗性防御提供了一个全新的解决方案。它不仅在理论上具有创新性,也在实际应用中展现出强大的效果。通过将对抗性防御问题转化为图像到图像的域转换过程,BoostCount实现了对对抗性扰动的精准消除,同时保持了图像的视觉语义一致性。这种方法为未来的模型安全研究提供了重要的参考,也为智能监控系统等关键应用场景的安全性提升提供了有力的技术支持。
生物通微信公众号
生物通新浪微博
今日动态 |
人才市场 |
新技术专栏 |
中国科学人 |
云展台 |
BioHot |
云讲堂直播 |
会展中心 |
特价专栏 |
技术快讯 |
免费试用
版权所有 生物通
Copyright© eBiotrade.com, All Rights Reserved
联系信箱:
粤ICP备09063491号