基于混合深度学习与主动轮廓模型的乳腺病变分割与分类研究

【字体: 时间:2025年05月27日 来源:Intelligence-Based Medicine CS5.0

编辑推荐:

  为解决乳腺钼靶图像中病变分割与分类精度不足的问题,研究人员开展了混合深度学习与主动轮廓模型(U-Net_ACM)的研究。结果显示,该模型准确率达 97.34%,Dice 系数 0.813,IoU 0.891,优于 VGG 等模型,为乳腺癌筛查提供新方案。

  
乳腺癌作为全球女性健康的重大威胁,其早期精准诊断至关重要。传统钼靶图像分析依赖放射科医生人工解读,面临病变特征细微、阅片耗时、易受主观因素影响等挑战,导致假阳性和假阴性率较高。计算机辅助诊断(CAD)系统虽能辅助分析,但现有方法在复杂病变边界勾勒和特征提取上存在局限,尤其对低对比度、不规则形态的病灶分割精度不足。因此,开发更高效的自动化分析模型成为医学影像领域的迫切需求。

为突破上述瓶颈,研究人员开展了混合深度学习与主动轮廓模型的乳腺病变分析研究。通过构建 U-Net_ACM 模型,结合深度学习的特征提取能力与主动轮廓模型(ACM)的边界细化优势,旨在提升钼靶图像中乳腺病变的分割与分类性能。该研究成果发表在《Intelligence-Based Medicine》,为乳腺癌早期筛查提供了新的技术路径。

研究采用中国乳腺钼靶数据库(CMMD)的 5202 幅全视野数字化钼靶图像(FFDM),经预处理(DICOM 转 PNG、归一化、形态学操作等)后,利用 U-Net 进行初始分割,再通过主动轮廓模型迭代优化边界。关键技术包括:U-Net 的编码器 - 解码器架构结合跳跃连接提取多尺度特征;主动轮廓模型通过能量最小化(内部能量控制轮廓平滑度、外部能量结合图像梯度引导边界定位)细化分割结果;采用二进制交叉熵损失函数和 Adam 优化器训练模型,并通过 Dice 系数、交并比(IoU)等指标评估性能。

结果分析


  1. 模型性能评估
    U-Net_ACM 模型在测试集上表现优异,准确率达 97.34%,Dice 系数为 0.813,交并比(IoU)0.891。训练过程中,训练损失与验证损失持续下降,验证准确率稳步提升,表明模型未出现过拟合,泛化能力较强。

  2. 对比其他模型
    与 VGG16、VGG19、DeepLabV3 等预训练模型相比,U-Net_ACM 在各项指标上显著领先。例如,VGG16 的准确率为 91%,DeepLabV3 的 IoU 仅 0.60,而 U-Net_ACM 通过主动轮廓模型的边界优化,有效解决了传统深度学习模型分割边界粗糙的问题,尤其在处理低对比度病灶时优势明显。

  3. 临床适用性验证
    通过可视化分析,U-Net_ACM 能更精准勾勒病变轮廓,减少过分割与欠分割现象。尽管初始训练耗时 20 小时,但模型部署后单次处理仅需 10 分钟,具备临床实时分析的潜力。


结论与意义


本研究构建的 U-Net_ACM 模型通过深度学习与主动轮廓模型的协同,显著提升了乳腺钼靶图像的病变分割与分类精度,为计算机辅助诊断系统提供了更可靠的技术方案。其优势在于结合了数据驱动的特征学习与模型驱动的边界优化,有效应对了钼靶图像的复杂性与异质性。未来研究可进一步扩大数据集多样性,探索多模态影像融合(如结合超声、MRI),并优化模型计算效率,推动其在临床场景中的广泛应用。该研究不仅为乳腺癌早期检测提供了新工具,也为医学影像分析领域的跨技术融合提供了借鉴思路。

相关新闻
生物通微信公众号
微信
新浪微博
  • 急聘职位
  • 高薪职位

知名企业招聘

热点排行

    今日动态 | 人才市场 | 新技术专栏 | 中国科学人 | 云展台 | BioHot | 云讲堂直播 | 会展中心 | 特价专栏 | 技术快讯 | 免费试用

    版权所有 生物通

    Copyright© eBiotrade.com, All Rights Reserved

    联系信箱:

    粤ICP备09063491号