基于Xception_ViT混合模型的CT影像卵巢肿瘤精准诊断研究

【字体: 时间:2025年05月27日 来源:Intelligence-Based Medicine CS5.0

编辑推荐:

  本研究针对卵巢癌诊断准确率低的临床难题,创新性地提出Xception_ViT混合深度学习模型,通过整合Xception的局部特征提取能力和Vision Transformer(ViT)的全局关系建模优势,在King Abdullah University Hospital提供的1943例CT影像数据集(KAUH-OCCTD/KAUH-BOTD/KAUH-MOTD)上实现98.09%的最高分类准确率,为卵巢良恶性肿瘤的自动化鉴别提供了新范式。

  

卵巢癌作为致死率最高的妇科恶性肿瘤,约75%患者确诊时已进展至晚期,传统CT影像诊断面临早期病灶识别困难、良恶性鉴别准确率波动大等挑战。尽管计算机辅助诊断(CAD)技术已取得进展,但现有模型在特征提取全面性和跨模态关联分析上存在局限。针对这一临床痛点,约旦科技大学附属King Abdullah University Hospital的研究团队创新性地融合深度卷积与自注意力机制,开发出Xception_ViT混合模型,相关成果发表于《Intelligence-Based Medicine》。

研究团队采用三大关键技术:1)构建包含1943例多视角CT影像的专属数据集(KAUH-OCCTD/KAUH-BOTD/KAUH-MOTD),涵盖正常、良性(5亚型)和恶性(4亚型)全谱系样本;2)设计Xception_ViT混合架构,通过Xception网络提取局部纹理特征后,经Vision Transformer(ViT)建模全局空间关系;3)采用高斯误差线性单元(GeLU)激活函数优化特征传递,结合95%置信区间(CI)统计验证。

【研究结果】
3.1 数据集特征
收集500名22-85岁女性患者的冠状位/矢状位/轴位CT三视图(720×720像素),经IRB伦理审查后形成三大数据集:KAUH-OCCTD(1943例)、KAUH-BOTD(1402例含复杂囊肿等5亚型)、KAUH-MOTD(725例含浆液性癌等4亚型)。

3.2 模型性能
在KAUH-OCCTD测试中,Xception_ViT以98.09%准确率显著超越7个基线模型(NASNetMobile 97.81%,ResNet50仅84.15%),其特异性达99.05%。对良性亚型分类(KAUH-BOTD)和恶性亚型鉴别(KAUH-MOTD)分别取得96.05%和98.73%的准确率,证实模型对囊实性成分、出血信号等细微差异的捕捉能力。

3.3 特征可视化
注意力热图显示模型可定位囊壁增厚、乳头状突起等恶性征象,与放射科医师标注关键区重合率达92%。

【结论与意义】
该研究首次在约旦地区建立卵巢肿瘤CT影像标准数据集,验证了CNN-Transformer混合架构在医学影像分析的优越性。Xception_ViT通过深度可分离卷积降低计算复杂度,结合ViT的长程依赖建模,使F1-score提升至98.11%。临床转化方面,模型可辅助初级医师鉴别易误诊的黏液性囊腺瘤与交界性肿瘤,为保留生育功能的手术决策提供量化依据。未来需通过多中心研究验证泛化性,但当前成果已为AI驱动的高效卵巢癌筛查奠定重要技术基础。

相关新闻
生物通微信公众号
微信
新浪微博
  • 急聘职位
  • 高薪职位

知名企业招聘

热点排行

    今日动态 | 人才市场 | 新技术专栏 | 中国科学人 | 云展台 | BioHot | 云讲堂直播 | 会展中心 | 特价专栏 | 技术快讯 | 免费试用

    版权所有 生物通

    Copyright© eBiotrade.com, All Rights Reserved

    联系信箱:

    粤ICP备09063491号