基于视觉显著性引导的VSGNet网络:仿生计算视觉驱动的皮肤病灶精准分割新范式

【字体: 时间:2025年06月16日 来源:Expert Systems with Applications 7.5

编辑推荐:

  针对皮肤病灶分割任务中存在的计算资源限制与精度难以兼顾的难题,中国科学院研究人员创新性地提出视觉显著性引导网络VSGNet。该模型通过仿生视觉注意力机制生成病灶显著性图,结合自适应通道注意力(ASCA)和通道-空间并行注意力(CSPA)模块,在ISIC2017/2018和PH2数据集上实现Dice系数提升1.84%、参数量降低196倍,为临床轻量化AI诊断提供新思路。

  

在紫外线辐射日益加剧的今天,黑色素瘤已跻身全球十大高致死率癌症之列。令人警醒的是,早期患者的五年生存率可达95%,而晚期骤降至15%——这凸显了病灶精准分割对临床诊断的决定性作用。然而现有深度学习方法陷入两难困境:Transformer架构虽精度优异却需消耗106GFLOPs算力,U-Net系列虽轻量化却难以处理病灶与正常皮肤颜色相近的定位难题,更遑论医疗场景中普遍存在的小样本训练、设备差异导致的色彩偏移等"拦路虎"。

中国科学院团队另辟蹊径,从人类视觉系统获得灵感:当我们在海滩寻找贝壳时,大脑会先快速锁定可疑区域再精细辨别——这种"先定位后分割"的双通路机制启发了VSGNet网络的诞生。该研究创新性地将仿生视觉原理与深度学习融合,通过三个阶段实现突破:首先模拟视网膜颜色恒常性特性校正设备差异,继而借鉴视觉皮层注意力机制生成病灶显著性热图,最终构建超轻量级ULMI-Net网络,其核心ASCA模块模拟生物视觉背侧通路的快速定位能力,CSPA模块则复现腹侧通路的细节处理机制。

关键技术方面,研究采用三阶段验证框架:1) 使用ISIC2017/2018和PH2公开数据集,按7:1:2划分训练集;2) 设计双循环训练策略,首次用显著性图引导网络定位,二次训练时用初筛结果替代显著性图以强化边缘分割;3) 引入多尺度特征金字塔和通道-空间并行注意力机制,在0.149M参数量下实现全局与局部特征的协同优化。

研究结果

  1. 颜色校正模块:通过模拟视网膜双极细胞的色彩补偿机制,将不同设备采集图像的色差标准差降低62.3%,有效解决无效学习问题。
  2. 显著性引导机制:相较于传统U-Net,加入视觉显著性先验知识使病灶定位准确率提升34.7%,特别对ISIC2018数据集中低对比度病灶效果显著。
  3. 轻量化网络性能:ULMI-Net在PH2数据集上达到96.2% Dice系数,参数量仅为Swin-UNet的0.51%,推理速度达83FPS,满足实时诊断需求。
  4. 跨数据集验证:在未参与训练的DDTI数据集上,VSGNet的mIoU仍保持91.4%,证实其卓越的泛化能力。

这项研究的意义不仅在于创造了当前最轻量的皮肤病灶分割模型,更重要的是开辟了"生物视觉启发式AI"的新范式。ASCA和CSPA模块的成功验证了仿生计算视觉的可行性,双循环训练策略为小样本学习提供新思路。正如研究者所言:"当人工智能开始向自然界的智慧取经,我们或许正在接近医疗AI的圣杯——既拥有专家的判断力,又具备初学者的学习效率。"该成果被《Expert Systems with Applications》收录,其开源代码已助力3家三甲医院构建移动端诊断系统,使皮肤癌筛查成本降低至传统方法的1/20。

相关新闻
生物通微信公众号
微信
新浪微博
  • 急聘职位
  • 高薪职位

知名企业招聘

热点排行

    今日动态 | 人才市场 | 新技术专栏 | 中国科学人 | 云展台 | BioHot | 云讲堂直播 | 会展中心 | 特价专栏 | 技术快讯 | 免费试用

    版权所有 生物通

    Copyright© eBiotrade.com, All Rights Reserved

    联系信箱:

    粤ICP备09063491号