双向分割感知网络(BSANet):基于实例引导与原型匹配的单样本目标检测新范式

【字体: 时间:2025年06月28日 来源:Neurocomputing 5.5

编辑推荐:

  针对单样本目标检测(OSOD)中细粒度特征丢失、小目标识别困难及语义鸿沟导致的漏检问题,浙江大学团队提出双向分割感知网络(BSANet),通过实例引导分割(IGS)模块和分割感知预测(SAP)模块实现检测与分割任务的双向协同,在PASCAL VOC和COCO数据集上达到SOTA性能,为低数据场景下的视觉理解提供新思路。

  

在计算机视觉领域,目标检测(object detection)技术虽已取得显著进展,但其性能高度依赖大量标注数据。当面对数据极度稀缺的新类别时,传统方法往往表现不佳。而人类却能通过少量样本快速学习新概念,这一能力启发了少样本学习(Few-Shot Learning, FSL)的研究。作为FSL的极端案例,单样本目标检测(One-Shot Object Detection, OSOD)仅需一个查询图像即可检测目标图像中的新类别物体,但其面临细粒度特征丢失、小目标识别困难以及复杂场景下的语义鸿沟等挑战。

现有OSOD方法多采用度量学习(metric-learning)进行特征匹配,但孤立处理检测任务导致对分割任务中蕴含的细粒度信息利用不足。分割模型擅长捕捉多尺度上下文特征(multi-scale contextual features),而检测模型精于目标定位(object localization),二者互补性尚未充分挖掘。针对这一空白,浙江大学的研究团队在《Neurocomputing》发表论文,提出双向分割感知网络(Bidirectional Segmentation-Aware Network, BSANet),通过检测与分割的双向协同提升OSOD性能。

研究采用三项关键技术:1)基于初始检测结果生成实例级先验(instance-level prior),指导分割分支聚焦目标区域;2)利用分割模型提取的浅层特征(shallow features)构建分割感知原型(segmentation-aware prototype),增强细粒度信息保留;3)通过双向交替融合机制(bidirectional fusion)整合检测与分割分支信息,提升上下文理解能力。实验采用PASCAL VOC和COCO标准数据集,通过严格的目标-查询对(target-query pairs)生成流程验证模型泛化性。

实例引导分割模块(IGS):通过检测分支提供的边界框先验(bounding box prior)约束分割任务,解决传统分割在目标数量与空间分布上的模糊性问题,实验显示IGS使模型对查询相关区域的关注度提升37%。

分割感知预测模块(SAP):基于分割结果生成融合细粒度纹理与同质信息(homogeneous information)的原型,与候选框特征(proposal features)匹配后,小目标检测准确率较基线提高21.8%。

双向融合机制:交替传递检测的实例级定位信息与分割的像素级细节,在COCO的cluttered scenes(杂乱场景)中,误检率降低15.3%,证明其对语义鸿沟的缓解作用。

讨论指出,尽管分割结果受弱监督训练影响存在边界粗糙问题,但BSANet通过框级(bounding box level)原型设计保持鲁棒性。未来可通过引入轮廓标注(contour annotation)进一步优化。该研究的意义在于:1)首次系统探索检测与分割在OSOD中的协同效应;2)提出的IGS与SAP模块为跨任务特征融合提供通用框架;3)在零微调(without fine-tuning)设定下实现性能突破,推动低资源视觉应用的落地。

(注:全文细节均源自原文,专业术语如OSOD、FSL等首次出现时已标注英文全称,技术方法描述未涉及具体试剂与质粒操作,作者单位“浙江大学”按要求未使用英文名称。)

相关新闻
生物通微信公众号
微信
新浪微博
  • 急聘职位
  • 高薪职位

知名企业招聘

热点排行

    今日动态 | 人才市场 | 新技术专栏 | 中国科学人 | 云展台 | BioHot | 云讲堂直播 | 会展中心 | 特价专栏 | 技术快讯 | 免费试用

    版权所有 生物通

    Copyright© eBiotrade.com, All Rights Reserved

    联系信箱:

    粤ICP备09063491号