面向语义分割的类内-类间知识蒸馏方法(I2CKD)研究:基于原型特征与三元组损失的模型压缩新策略

【字体: 时间:2025年06月29日 来源:Neurocomputing 5.5

编辑推荐:

  本研究针对语义分割模型计算资源消耗大的问题,提出创新性类内-类间知识蒸馏方法(I2CKD)。通过提取教师网络的类原型特征,采用三元组损失函数(LI2CKD)同步优化类内紧凑性和类间分离性,在Cityscapes等四个数据集上验证了该方法可使学生网络mIoU提升最高达4.93%。该研究为边缘设备部署轻量化语义分割模型提供了新思路。

  

在计算机视觉领域,语义分割技术正日益成为自动驾驶、医疗影像分析等应用的核心支撑。然而,主流全卷积网络(FCN)如DeepLabV3、PSPNet等模型存在参数量大、计算成本高的问题,严重制约其在资源受限设备上的部署。传统知识蒸馏(KD)方法多关注像素级或通道级特征匹配,却忽略了语义分割任务最本质的类间判别特征。这一技术瓶颈促使研究者探索更符合语义分割特性的知识蒸馏新范式。

来自某研究机构的研究团队在《Neurocomputing》发表的研究中,创新性地提出类内-类间知识蒸馏框架(I2CKD)。该方法突破性地将度量学习中的原型概念引入知识蒸馏领域,通过构建类原型特征空间,利用三元组损失函数同步约束类内特征聚合和类间特征分离,最终在保持模型轻量化的同时显著提升分割精度。研究结果表明,该方法在Cityscapes测试集上使DeepLabV3-R18学生模型的mIoU达到74.66%,较基线提升1.21个百分点。

关键技术方法包括:1)基于特征图和真实标签的类原型计算;2)融合交叉熵损失(Ltask)、得分图KL散度(LSM)和原型三元组损失(LI2CKD)的多目标优化;3)采用SGD动量优化器与多项式学习率衰减策略;4)在Cityscapes、Pascal VOC等四个标准数据集上进行验证。

3.1 方法概述
研究团队设计的三阶段训练框架独具匠心:首先通过常规分割损失Ltask保证基础性能;其次引入得分图蒸馏损失LSM传递软标签信息;最关键的是创新性地增加原型蒸馏损失LI2CKD,其核心公式为:

LI2CKD = (1/C(C-1))Σc=1CΣj≠c[m + ‖pcs-pct2 - ‖pcs-pjt2]+

该设计使学生网络在压缩87.7%参数量的同时(ResNet101→ResNet18),仍能保持教师网络78.07%的类间判别能力。

4.3 实验结果
在Cityscapes数据集上的对比实验显示,I2CKD方法显著优于现有技术:对于ImageNet预训练的DeepLabV3-R18学生模型,其76.07%的验证集mIoU超越SKD方法0.65个百分点;在更具挑战性的随机初始化场景中,该方法以73.11%的mIoU大幅领先CIRKD方法4.93个百分点,验证了其对初始化条件不敏感的鲁棒性。值得注意的是,在包含150个类的复杂场景数据集ADE20K上,I2CKD仍能取得37.64%的mIoU,较基线提升3.73个百分点。

5. 结论与展望
该研究开创性地将原型学习与三元组损失引入知识蒸馏领域,为解决语义分割模型轻量化难题提供了新思路。实验证明,通过精确传递类间关系知识,即使压缩后的学生网络也能保持与复杂教师网络相当的类判别能力。未来工作可探索三个方向:改进原型估计的鲁棒性以应对类别不平衡问题,开发更高效的三元组采样策略降低计算开销,以及将该框架扩展至Transformer基模型。这些突破将进一步推动语义分割技术在移动医疗、智能驾驶等实时应用场景的落地。

相关新闻
生物通微信公众号
微信
新浪微博
  • 急聘职位
  • 高薪职位

知名企业招聘

热点排行

    今日动态 | 人才市场 | 新技术专栏 | 中国科学人 | 云展台 | BioHot | 云讲堂直播 | 会展中心 | 特价专栏 | 技术快讯 | 免费试用

    版权所有 生物通

    Copyright© eBiotrade.com, All Rights Reserved

    联系信箱:

    粤ICP备09063491号