基于可解释人工智能的混合DRM-Net迁移学习模型用于超声图像乳腺癌检测与分类
《Scientific Reports》:Explainable AI based hybrid DRM-Net transfer learning model for breast cancer detection and classification using ultrasound images
【字体:
大
中
小
】
时间:2025年12月20日
来源:Scientific Reports 3.9
编辑推荐:
本研究针对乳腺癌早期诊断需求,研究人员开展了一项基于超声图像的乳腺癌检测与分类研究。他们提出了一种新型混合DRM-Net模型,通过堆叠DenseNet169、ResNet50和MobileNet三种迁移学习(TL)模型,结合图像预处理、数据增强和掩膜技术,实现了96.71%的准确率、96%的精确度、97%的召回率和99%的AUC值。该研究还采用Grad-CAM、Grad-CAM++和Score-CAM等XAI技术增强模型可解释性,为临床决策提供透明化支持,显著提升了乳腺癌诊断的准确性和可靠性。
乳腺癌是全球女性健康的主要威胁,早期诊断对于提高治疗效果和患者预后至关重要。然而,传统的乳腺癌分类方法主要基于临床病理特征和常见生物标志物分析,可能无法精确反映每种乳腺癌亚型的不同临床结果。理解癌症发生和发展涉及的复杂生物学过程仍然是一个重大挑战。
近年来,人工智能技术在医疗领域展现出巨大潜力,特别是在医学影像分析方面。深度学习(Deep Learning, DL)模型能够识别高维数据中的复杂模式,超越了传统图像解读方法的局限性。其中,迁移学习(Transfer Learning, TL)技术通过使用在大型图像数据集上预训练的神经网络,将从一个问题中获得的知识迁移到另一个相似领域的问题上,在医学图像计算中表现出显著效果。
在这项发表于《Scientific Reports》的研究中,研究人员开发了一种创新的混合深度学习模型——DRM-Net,专门用于乳腺癌的超声图像检测和分类。该研究团队来自King Faisal University等多所机构,他们旨在解决当前乳腺癌诊断中面临的几个关键问题:图像质量不一、模型可解释性不足以及单一模型性能有限等挑战。
研究人员使用了公开的乳腺超声图像数据集(Breast Ultrasound Images Dataset),包含1578张图像,分为良性、恶性和正常三类。通过图像预处理(调整大小为512×512像素)、数据增强(采用旋转、翻转、缩放等技术解决类别不平衡问题)和图像掩膜(使用高斯滤波和Sobel滤波增强特征)等方法优化数据质量。研究比较了六种迁移学习模型(VGG16、EfficientNetB0、InceptionV3、DenseNet169、MobileNet和ResNet50),并基于性能筛选出前三名模型(DenseNet169、ResNet50和MobileNet)构建混合DRM-Net模型。采用五折交叉验证评估模型鲁棒性,使用准确率、精确度、召回率、F1-score和AUC等指标进行评估,并通过Friedman对齐秩检验和事后分析进行统计验证。最后,利用Grad-CAM、Grad-CAM++和Score-CAM等可解释人工智能(Explainable AI, XAI)技术可视化模型决策依据。
研究的核心创新是提出了DRM-Net混合模型,该模型通过堆叠DenseNet169、ResNet50和MobileNet三个顶级迁移学习模型,并采用拼接和扁平化深度密集层的方式整合它们的特征表示。模型输入图像尺寸为512×512×3,输出为三类分类(良性、恶性和正常)。每个基础模型后接7×7×1024的卷积层和最大池化层,然后通过三个全连接层(大小分别为1024、512和256),最后通过多数投票机制进行最终分类。
在性能比较中,DRM-Net模型显著优于所有单个迁移学习模型,达到了96.71%的准确率、96%的精确度、97%的召回率、97%的F1-score和99%的AUC值。相比之下,表现最好的单个模型MobileNet的准确率为91.18%,而VGG16模型表现最差,准确率仅为75.38%。五折交叉验证结果显示DRM-Net具有稳定的性能,准确率标准差仅为0.2%。
在计算效率方面,DRM-Net虽然比单个模型需要更多资源(参数量44.1M,FLOPs为9.3G,训练时间每轮40秒),但与VGG16(参数量138.0M,FLOPs为15.5G)相比仍然更为高效。研究人员认为,在乳腺癌检测等关键应用中,这种计算成本的增加是可以接受的,因为准确性和精确度至关重要。
消融研究明确了各组件对最终性能的贡献。单独使用DenseNet169、ResNet50和MobileNet的准确率分别为89.87%、90.00%和91.18%,而两两组合的准确率在95.16%-95.48%之间。三者组合的DRM-Net达到了最高的96.71%准确率,证明了混合策略的有效性。
统计分析进一步验证了DRM-Net的优越性。Friedman对齐秩检验显示,DRM-Net在准确率、宏平均和加权平均等正指标上排名最高(秩为7),在损失和标准差等负指标上排名最低(秩为1)。事后分析虽然未显示出统计学显著性(所有p值>0.05),但排名趋势一致表明DRM-Net具有更可靠的预测能力。
研究还通过多种类激活映射(Class Activation Mapping, CAM)方法增强了模型的可解释性。Grad-CAM、Grad-CAM++和Score-CAM生成的热图清晰显示了模型在图像中关注的关键区域。对于良性病变,模型主要关注平滑、边界清晰的区域;对于恶性肿瘤,则聚焦于不规则、边界模糊的区域。即使在误分类情况下,热图也能突出显示诊断不确定性的区域,为放射科医生提供有价值的参考。
该研究成功开发了一种基于可解释人工智能的混合DRM-Net模型,用于乳腺癌的超声图像检测和分类。通过整合三种高性能的迁移学习模型,该模型在多个评估指标上均表现出色,准确率达到96.71%,且具有较高的精确度、召回率和AUC值。
研究的创新点在于:首先,提出了一种新颖的模型融合策略,充分利用了不同迁移学习模型的互补优势;其次,全面评估了多种预处理技术对模型性能的影响;第三,通过严格的统计检验验证了模型的可靠性;最后,集成了多种可解释AI技术,使模型的决策过程对临床医生更加透明。
在临床意义方面,DRM-Net模型的高性能特别是高召回率(97%)意味着它能够有效识别出更多的真实癌症病例,这对于早期诊断和及时治疗至关重要。模型的可解释性功能使放射科医生能够理解AI的判断依据,增强了对AI系统的接受度和信任度。此外,该研究采用的综合评估方法为医学AI模型的可信度建立提供了范例。
研究的局限性包括依赖单一数据集、使用了数据增强技术可能引入偏差、较高的计算资源需求以及缺乏外部验证。未来研究可以探索在多中心数据集上的验证、模型轻量化设计、多模态影像融合以及在实际临床环境中的前瞻性评估。
总体而言,这项研究为乳腺癌的计算机辅助诊断提供了一种准确、可靠且可解释的解决方案,有望在临床实践中辅助医生进行更精准的诊断决策,最终改善乳腺癌患者的治疗效果。
生物通微信公众号
生物通新浪微博
今日动态 |
人才市场 |
新技术专栏 |
中国科学人 |
云展台 |
BioHot |
云讲堂直播 |
会展中心 |
特价专栏 |
技术快讯 |
免费试用
版权所有 生物通
Copyright© eBiotrade.com, All Rights Reserved
联系信箱:
粤ICP备09063491号