
-
生物通官微
陪你抓住生命科技
跳动的脉搏
基于Transformer与CNN融合模型的超声影像辅助乳腺癌诊断研究:来自约旦KAUH-BCUSD数据集的新突破
【字体: 大 中 小 】 时间:2025年06月12日 来源:Intelligence-Based Medicine CS5.0
编辑推荐:
本研究针对中东地区缺乏本土化乳腺癌超声数据集的问题,由约旦King Abdullah大学医院团队构建首个含6159张超声图像的KAUH-BCUSD数据集,创新性提出CNN_ViT混合模型,通过结合卷积神经网络(CNN)的局部特征提取与视觉Transformer(ViT)的全局建模能力,实现95.12%的分类准确率,为区域化乳腺癌早期诊断提供可靠AI工具。
乳腺癌作为全球女性癌症相关死亡的第二大原因,早期诊断对提高生存率至关重要。然而传统诊断方法面临两大挑战:一是超声影像存在操作者依赖性、噪声干扰和病灶形态复杂性;二是中东地区缺乏反映本土人口特征的标准化数据集。约旦King Abdullah大学医院的研究团队在《Intelligence-Based Medicine》发表的研究,通过构建首个中东地区乳腺癌超声数据集KAUH-BCUSD,并开发创新性的CNN_ViT混合模型,为这些难题提供了突破性解决方案。
研究团队采用多学科协作模式,首先从5000例临床病例中收集6159张超声图像构建KAUH-BCUSD数据集,所有图像经专业医师标注为良性或恶性。技术方法上,创新性地将卷积神经网络(CNN)的局部特征提取优势与视觉Transformer(ViT)的全局自注意力机制结合:1)通过CNN组件捕获肿瘤边缘等局部特征;2)将特征图分割为patch序列输入ViT模块,利用多头自注意力机制建模全局关联;3)采用Adam优化器进行端到端训练,并严格实施患者级别的数据划分以避免信息泄露。
研究结果部分显示:1)模型比较:CNN_ViT混合模型以95.12%准确率显著优于8种预训练模型(VGG16最高86.29%),F1-score达0.9524;2)性能分析:在召回率(0.9754)方面表现突出,表明对恶性病例的高敏感性;3)混淆矩阵显示该模型仅产生95例错误分类,远低于ViT单独使用的413例错误;4)消融实验证实CNN与ViT的协同效应——单独ViT模型准确率仅68.89%,而混合模型提升近27个百分点。
讨论部分强调,该研究具有三重创新价值:一是填补中东地区乳腺癌标准化数据空白,6159张图像规模远超现有公开数据集;二是首次验证混合架构在阿拉伯人群乳腺癌诊断的优越性,其95.12%的准确率为临床转化奠定基础;三是提出的患者级别数据划分方案增强模型可靠性。作者指出未来可拓展方向包括融合多模态影像数据,以及通过迁移学习验证模型在其他种族人群的泛化能力。这项研究不仅为中东地区乳腺癌筛查提供精准工具,更为医学AI领域开创了结合局部与全局特征分析的新范式。
生物通微信公众号
知名企业招聘