基于Vision Transformer与DeepLabV3+协同AI框架的结直肠癌超精细图像解析与自动诊断研究

【字体: 时间:2025年07月16日 来源:BMC Medical Imaging 2.9

编辑推荐:

  为解决结直肠癌(CRC)诊断中人工判读效率低、误诊率高的问题,研究人员开发了结合Vision Transformers(ViTs)和DeepLabV3+的计算机辅助诊断(CADx)系统。通过整合CKHK-22数据集(含14,000+标注图像),ViT实现97%分类准确率,DeepLabV3+获得0.88 Dice系数,显著提升恶性息肉定位精度。该系统通过Google Cloud实现实时推理,为资源匮乏地区提供可扩展的临床解决方案。

  

结直肠癌(CRC)作为全球癌症相关死亡的第二大诱因,其早期诊断面临巨大挑战。传统结肠镜检查高度依赖医师经验,存在漏诊率高(尤其是微小息肉)、判读标准不统一等问题。随着AI技术在医学影像领域的突破,基于深度学习的计算机辅助诊断(CADx)系统成为研究热点,但现有方法在全局特征建模和病灶边界分割精度上仍有局限。

SRM理工学院计算学院(印度)的Akella S. Narasimha Raju团队在《BMC Medical Imaging》发表研究,提出融合Vision Transformers(ViTs)和DeepLabV3+的协同AI框架。研究人员整合CVC-ClinicDB、Kvasir-2和Hyper-Kvasir数据集构建CKHK-22(含14,287张标注图像),通过主成分分析(PCA)降维聚焦息肉与痔疮两类关键病变。ViT采用自注意力机制捕捉全局特征,DeepLabV3+利用空洞空间金字塔池化(ASPP)实现多尺度分割,最终通过Google Cloud部署实时诊断系统。

关键技术包括:1) 混合数据集预处理(PCA保留95%方差);2) ViT分类架构(8注意力头,2048维前馈网络);3) DeepLabV3+分割网络(ResNet-50编码器);4) 云平台集成推理。实验采用NVIDIA Quadro P5000 GPU,通过80:20数据划分验证性能。

分类性能对比

ViT以99.98%训练准确率、97%测试准确率(AUC 92%)显著优于ResNet-50(91%)等传统CNN模型,其注意力机制有效识别微小息肉特征(图21)。

分割精度验证

DeepLabV3+达到0.71 IoU和0.88 Dice系数(图24),通过ASPP模块精准勾勒不规则病灶边界,较U-Net提升12%分割精度。

系统整合应用

CADx流程(图25)实现分类-分割协同:ViT定位可疑区域后,DeepLabV3+生成像素级掩膜,临床验证显示该系统可减少61%假阴性(图21)。

该研究突破性地将Transformer架构引入CRC诊断,其创新性体现在:1) 通过ViT的长程依赖建模解决CNN局部感知局限;2) 首次在息肉分割中实现<1mm级精度;3) 构建首个融合多源数据的CKHK-22基准数据集。临床意义在于:为基层医疗提供标准化诊断工具,预计可使早期CRC检出率提升23%。未来工作将拓展LIME可解释性模块,并开发实时视频内镜分析功能。

(注:图21/24/25等引用自原文图片标签,展示分类混淆矩阵、分割效果及系统架构)

相关新闻
生物通微信公众号
微信
新浪微博
  • 急聘职位
  • 高薪职位

知名企业招聘

热点排行

    今日动态 | 人才市场 | 新技术专栏 | 中国科学人 | 云展台 | BioHot | 云讲堂直播 | 会展中心 | 特价专栏 | 技术快讯 | 免费试用

    版权所有 生物通

    Copyright© eBiotrade.com, All Rights Reserved

    联系信箱:

    粤ICP备09063491号