边界与对象协同学习的伪装目标检测网络(BCLNet):提升定位精度与细节识别的创新方法

【字体: 时间:2025年06月04日 来源:Image and Vision Computing 4.2

编辑推荐:

  针对伪装目标检测(COD)中存在的目标定位不准和细节识别不全等难题,上海研究人员提出边界与对象协同学习网络(BCLNet),通过自适应特征学习(AFL)模块和边界引导选择性融合(BSF)模块实现特征互补优化,在四个主流数据集上超越现有方法,为医疗图像分析(如息肉分割)和军事侦察等领域提供技术支撑。

  

在自然界和军事领域,伪装目标检测(Camouflaged Object Detection, COD)是一项极具挑战性的任务——目标物通过颜色、纹理或形状与背景高度融合,使得人眼和传统算法都难以识别。这类技术对医学图像分析(如结直肠息肉分割)、工业缺陷检测和军事侦察至关重要。然而,现有方法在复杂场景中仍面临两大瓶颈:一是多尺度目标定位不精准,二是细节边界识别不完整,导致预测结果出现模糊或断裂。

针对这些问题,上海的研究团队在《Image and Vision Computing》发表论文,提出边界与对象协同学习网络(BCLNet)。该网络通过两个创新模块实现突破:自适应特征学习(AFL)模块首次建立边界特征与目标特征的交互优化机制,使两者通过互补学习修正自身缺陷;边界引导选择性融合(BSF)模块则利用边界线索指导跨层级特征融合,增强语义与细节的协同表达。实验证明,BCLNet在COD10K等四个数据集上超越现有CNN和Transformer模型。

关键技术包括:1) 构建双分支交互的AFL模块,通过特征互学习优化定位与细节;2) 设计BSF模块实现边界引导的跨层级特征选择融合;3) 采用端到端训练策略整合多模块优势。

研究结果方面:

  1. AFL模块验证:通过消融实验证实,边界与目标特征的交互学习使交并比(IoU)提升3.2%,尤其改善低对比度场景下的结构完整性。
  2. BSF模块分析:相比传统加法融合,边界引导的选择机制使细小边界识别准确率提高5.7%,有效解决多目标场景下的漏检问题。
  3. 跨数据集测试:在包含医疗图像(如息肉)的CAMO数据集上,BCLNet的Fβ指标达0.891,显著优于SINetV2等基线模型。

结论表明,BCLNet首次实现边界与目标特征的动态协同优化,为COD任务提供新范式。其医学应用潜力已在息肉分割初步实验中显现,未来可扩展至肿瘤识别等场景。研究获上海市自然科学基金(21ZR1462600)支持,代码将在论文录用后开源。

相关新闻
生物通微信公众号
微信
新浪微博
  • 急聘职位
  • 高薪职位

知名企业招聘

热点排行

    今日动态 | 人才市场 | 新技术专栏 | 中国科学人 | 云展台 | BioHot | 云讲堂直播 | 会展中心 | 特价专栏 | 技术快讯 | 免费试用

    版权所有 生物通

    Copyright© eBiotrade.com, All Rights Reserved

    联系信箱:

    粤ICP备09063491号