评估推理攻击:针对2D语义分割模型的攻击与防御措施

《ACM Transactions on Autonomous and Adaptive Systems》:Evaluate Inference Attacks: Attack and Defense against 2D Semantic Segmentation Models

【字体: 时间:2025年11月08日 来源:ACM Transactions on Autonomous and Adaptive Systems

编辑推荐:

  自动驾驶中的2D语义分割模型(DeepLabV3/DeepLabV3+)存在推理攻击隐私漏洞,经测试在成员推断(最高95%)、属性推断(40%)和模型反转(70%)攻击下均脆弱,深度网络更易泄露隐私。采用差分隐私和模型剪枝防御,攻击成功率平均下降20%。

  

摘要

基于深度学习(DL)的2D语义分割(SS)在自动驾驶的感知任务中发挥着重要作用。然而,SS模型依赖于DL,这使其容易受到推理攻击。最近的研究发现,SS模型容易受到成员身份推断攻击,但其他类型的推理攻击尚未得到充分研究。我们的研究通过全面分析两种广泛使用的基于RGB图像的2D SS模型(DeepLabV3DeepLabV3+)对三种推理攻击(成员身份推断、属性推断和模型反演)的脆弱性,填补了这一空白。我们在三个数据集(VOC2012、CityScapes和ADE20K)上,使用三种不同的模型架构(MobileNetV2、ResNet50和ResNet101)评估了这些攻击的有效性,结果发现:在成员身份推断攻击中攻击准确率可达到95%,在属性推断攻击中为40%,在模型反演攻击中为70%。这表明更复杂的网络在推理攻击中更容易发生隐私泄露。因此,我们引入了差分隐私和模型剪枝作为防御机制,显著降低了攻击效果,三种攻击下的平均准确率均下降了20%。我们的研究揭示了SS任务中的关键隐私漏洞,并为开发更强大的自动驾驶SS模型提供了实际指导。
相关新闻
生物通微信公众号
微信
新浪微博
  • 搜索
  • 国际
  • 国内
  • 人物
  • 产业
  • 热点
  • 科普
  • 急聘职位
  • 高薪职位

知名企业招聘

热点排行

    今日动态 | 人才市场 | 新技术专栏 | 中国科学人 | 云展台 | BioHot | 云讲堂直播 | 会展中心 | 特价专栏 | 技术快讯 | 免费试用

    版权所有 生物通

    Copyright© eBiotrade.com, All Rights Reserved

    联系信箱:

    粤ICP备09063491号