基于可解释人工智能的混合深度学习架构在乳腺癌检测中的应用研究

【字体: 时间:2025年08月28日 来源:Frontiers in Immunology 5.9

编辑推荐:

  这篇综述提出了一种融合DENSENET121、Xception和VGG16三种预训练CNN模型的混合深度学习(DL)框架,通过中间层特征融合策略将乳腺癌超声图像分类准确率提升至97%。创新性引入梯度加权类激活映射++(GRADCAM++)技术实现模型可解释性,为临床决策提供可视化依据,有效解决了传统DL模型"黑箱"问题。

  

1 Introduction

乳腺癌(BC)作为全球女性最高发的恶性肿瘤,早期诊断对提高生存率至关重要。传统诊断方法如 mammography 存在耗时长、人为误差等问题,而深度学习(DL)虽在医学影像分析中表现优异,却因"黑箱"特性限制临床转化。本研究创新性地将模型融合技术与可解释人工智能(XAI)结合,构建了VGG16、DenseNet121和Xception三模型融合架构,通过GRADCAM++生成热力图解释决策依据,在保持高准确率(97%)同时满足临床可解释需求。

2 Related work

现有研究主要采用单一CNN模型(如VGG19准确率87.8%)或集成学习(如投票集成准确率94.2%),但存在特征提取不充分、计算资源需求高等局限。相比传统集成方法,模型融合在中间层进行特征拼接,能捕获更丰富的空间和上下文信息。XAI技术中,GRADCAM++凭借二阶梯度计算优于SHAP和LIME等模型无关方法,在医学影像定位任务中表现突出。

3 Proposed methodology

3.1 Proposed algorithm

核心创新点包括:

  1. 1.

    三模型融合:VGG16(13层卷积)提取空间特征,DenseNet121(121层)实现特征重用,Xception(36层深度可分离卷积)优化计算效率。

  2. 2.

    中间层融合:通过全局平均池化(GAP)降维后拼接特征向量,经256/128神经元全连接层分类。

  3. 3.

    GRADCAM++解释:基于最终卷积层梯度生成热力图,红色区域对应恶性肿瘤关注区域(Pred:1.00),蓝色对应良性(Pred:0.00)。

实验采用Breast Ultrasound Image Dataset(8,116张图像),75%训练集经旋转/翻转增强,批处理量32,Adam优化器训练50轮。关键参数:输入尺寸128×128,像素归一化[0,1],dropout防过拟合。

4 Result analysis

4.1 Comparative analysis

  • 单一模型最佳表现:VGG16(84%)、DenseNet121(83%)、Xception(82%)

  • 融合模型显著提升:准确率97.14%(+13%),F1-score 96.82%

  • 对比现有技术:超越UNET+EfficientNetB7(91%)、VGG16迁移学习(91%)等方案

GRADCAM++可视化显示,模型能准确聚焦肿瘤边缘不规则、声影等恶性特征区域,与病理学特征高度吻合。热力图叠加原始图像后,临床医生可直观验证恶性病灶(如图5f-j红色高亮)与良性区域(图5a-e蓝色低激活)的对应关系。

5 Conclusion

该研究突破性地将多模型融合与XAI技术结合,在保持SOTA性能(97.14%准确率)同时实现决策可视化。未来可扩展至多模态数据(如MRI+超声联合分析),并探索联邦学习保护患者隐私。该框架为AI辅助诊断系统在临床实践中的可信部署提供了重要范式。

相关新闻
生物通微信公众号
微信
新浪微博
  • 急聘职位
  • 高薪职位

知名企业招聘

热点排行

    今日动态 | 人才市场 | 新技术专栏 | 中国科学人 | 云展台 | BioHot | 云讲堂直播 | 会展中心 | 特价专栏 | 技术快讯 | 免费试用

    版权所有 生物通

    Copyright© eBiotrade.com, All Rights Reserved

    联系信箱:

    粤ICP备09063491号