基于注意力引导深度空洞残差U-Net和高效胶囊网络的乳腺癌智能诊断框架

【字体: 时间:2025年08月31日 来源:Health Policy OPEN 2.3

编辑推荐:

  本研究针对乳腺癌病理图像分析中存在的染色差异大、特征提取不精准等问题,开发了AGDATUNet-LFRFO-ECN深度学习框架。通过Attention-Guided Deep Atrous-Residual U-Net(AGDATUNet)实现肿瘤区域精准分割,结合VGG19/ResNet50特征提取和Levy Flight-based Red Fox Optimisation(LFRFO)优化,最终采用Efficient Capsule Network(ECN)分类,在WBCD和BreakHis数据集上分别达到99.23%和99.82%准确率,为自动化乳腺癌诊断提供新范式。

  

乳腺癌作为全球女性最常见的恶性肿瘤,其早期诊断对降低死亡率至关重要。然而传统病理诊断依赖人工阅片,存在主观性强、效率低下等问题。尽管计算机辅助诊断(CAD)技术不断发展,但现有方法在病理图像分割精度、特征提取能力等方面仍存在明显局限。

针对这些挑战,Ahed Abugabah团队在《Health Policy OPEN》发表研究,提出名为AGDATUNet-LFRFO-ECN的创新框架。该研究首先采用色彩归一化处理解决染色差异问题,随后开发Attention-Guided Deep Atrous-Residual U-Net(AGDATUNet)实现肿瘤区域精准分割,其创新性地融合空洞卷积(dilated convolution)和残差连接(residual connection),并引入注意力机制提升关键特征提取能力。特征提取阶段联合VGG19和ResNet50模型,通过Levy Flight-based Red Fox Optimisation(LFRFO)算法优化超参数,最终采用Efficient Capsule Network(ECN)完成分类,在保持胶囊网络对空间关系建模优势的同时提升计算效率。

关键技术方法包括:1) 使用Wisconsin Breast Cancer Database(WBCD)和BreakHis两个公开数据集;2) AGDATUNet架构实现端到端分割;3) VGG19和ResNet50双通道特征提取;4) LFRFO元启发式优化算法;5) 5折交叉验证确保结果可靠性。

研究结果部分显示:

  1. 1.

    在WBCD数据集上,AGDATUNet的Jaccard系数(JC)和Dice系数分别达97.91%和97.98%,显著优于传统U-Net等模型。分类任务中准确率99.49%,灵敏度99.17%,特异性99.08%。

  2. 2.

    BreakHis数据集测试中,在100X和200X放大倍数下,模型准确率分别达99.52%和99.88%,灵敏度均超过99%。

  3. 3.

    对比实验表明,该框架性能超越Deer canid-based DCNN、DSG-DNMF-HCDV3+等现有方法。

讨论部分强调,该研究的核心创新在于:1) AGDATUNet通过注意力引导机制有效解决病理图像中目标形态多变的问题;2) LFRFO优化策略克服传统CNN模型超参数调优难题;3) ECN分类器在保持高精度的同时增强模型解释性。临床意义方面,该框架可无缝集成到数字病理系统,辅助医生实现快速、客观的诊断决策。未来研究可拓展至多模态数据融合,并探索在实时临床环境中的部署应用。

这项研究为乳腺癌自动化诊断树立了新标杆,其模块化设计思路也为其他医学图像分析任务提供了重要参考。特别是模型在保持高精度的同时具备良好的泛化能力,对推动AI在精准医疗领域的实际应用具有重要价值。

相关新闻
生物通微信公众号
微信
新浪微博
  • 急聘职位
  • 高薪职位

知名企业招聘

热点排行

    今日动态 | 人才市场 | 新技术专栏 | 中国科学人 | 云展台 | BioHot | 云讲堂直播 | 会展中心 | 特价专栏 | 技术快讯 | 免费试用

    版权所有 生物通

    Copyright© eBiotrade.com, All Rights Reserved

    联系信箱:

    粤ICP备09063491号