
-
生物通官微
陪你抓住生命科技
跳动的脉搏
基于Xception_ViT混合模型的CT影像卵巢肿瘤精准诊断研究
【字体: 大 中 小 】 时间:2025年05月27日 来源:Intelligence-Based Medicine CS5.0
编辑推荐:
本研究针对卵巢癌诊断准确率低的临床难题,创新性地提出Xception_ViT混合深度学习模型,通过整合Xception的局部特征提取能力和Vision Transformer(ViT)的全局关系建模优势,在King Abdullah University Hospital提供的1943例CT影像数据集(KAUH-OCCTD/KAUH-BOTD/KAUH-MOTD)上实现98.09%的最高分类准确率,为卵巢良恶性肿瘤的自动化鉴别提供了新范式。
卵巢癌作为致死率最高的妇科恶性肿瘤,约75%患者确诊时已进展至晚期,传统CT影像诊断面临早期病灶识别困难、良恶性鉴别准确率波动大等挑战。尽管计算机辅助诊断(CAD)技术已取得进展,但现有模型在特征提取全面性和跨模态关联分析上存在局限。针对这一临床痛点,约旦科技大学附属King Abdullah University Hospital的研究团队创新性地融合深度卷积与自注意力机制,开发出Xception_ViT混合模型,相关成果发表于《Intelligence-Based Medicine》。
研究团队采用三大关键技术:1)构建包含1943例多视角CT影像的专属数据集(KAUH-OCCTD/KAUH-BOTD/KAUH-MOTD),涵盖正常、良性(5亚型)和恶性(4亚型)全谱系样本;2)设计Xception_ViT混合架构,通过Xception网络提取局部纹理特征后,经Vision Transformer(ViT)建模全局空间关系;3)采用高斯误差线性单元(GeLU)激活函数优化特征传递,结合95%置信区间(CI)统计验证。
【研究结果】
3.1 数据集特征
收集500名22-85岁女性患者的冠状位/矢状位/轴位CT三视图(720×720像素),经IRB伦理审查后形成三大数据集:KAUH-OCCTD(1943例)、KAUH-BOTD(1402例含复杂囊肿等5亚型)、KAUH-MOTD(725例含浆液性癌等4亚型)。
3.2 模型性能
在KAUH-OCCTD测试中,Xception_ViT以98.09%准确率显著超越7个基线模型(NASNetMobile 97.81%,ResNet50仅84.15%),其特异性达99.05%。对良性亚型分类(KAUH-BOTD)和恶性亚型鉴别(KAUH-MOTD)分别取得96.05%和98.73%的准确率,证实模型对囊实性成分、出血信号等细微差异的捕捉能力。
3.3 特征可视化
注意力热图显示模型可定位囊壁增厚、乳头状突起等恶性征象,与放射科医师标注关键区重合率达92%。
【结论与意义】
该研究首次在约旦地区建立卵巢肿瘤CT影像标准数据集,验证了CNN-Transformer混合架构在医学影像分析的优越性。Xception_ViT通过深度可分离卷积降低计算复杂度,结合ViT的长程依赖建模,使F1-score提升至98.11%。临床转化方面,模型可辅助初级医师鉴别易误诊的黏液性囊腺瘤与交界性肿瘤,为保留生育功能的手术决策提供量化依据。未来需通过多中心研究验证泛化性,但当前成果已为AI驱动的高效卵巢癌筛查奠定重要技术基础。
生物通微信公众号
知名企业招聘