基于多中心数字病理的膀胱尿路上皮肿瘤人工智能分类模型验证研究

《Scientific Reports》:Multi-institutional validation of AI models for classifying urothelial neoplasms in digital pathology

【字体: 时间:2025年10月25日 来源:Scientific Reports 3.9

编辑推荐:

  本研究针对膀胱癌病理诊断中正常组织、非浸润性与浸润性尿路上皮肿瘤的鉴别难题,开发了基于卷积神经网络(CNN)和Transformer的深度学习模型。通过五家医疗机构提供的12,500张全切片图像(WSI)进行训练与验证,结果显示EfficientNet-B6模型表现最优,准确率达0.913,AUC为0.983。该模型具备良好的泛化能力,有望辅助病理医生提升诊断效率与一致性,推动膀胱癌精准诊疗发展。

  
膀胱癌作为全球第十大常见恶性肿瘤,每年新增病例超过57万,死亡人数约21万,且预计到2040年疾病负担将增长超过70%。其诊断金标准依赖于病理医生对经苏木精-伊红(H&E)染色的组织切片进行显微镜检查。然而,传统病理诊断存在劳动强度大、耗时长、观察者间差异显著等问题,尤其在区分正常尿路上皮、非浸润性尿路上皮肿瘤(如pTa、pTis)与浸润性尿路上皮癌(如pT1-pT4)时,因形态学特征重叠而易出现误判。随着数字病理技术的发展,全切片图像(WSI)的普及为人工智能(AI)辅助诊断提供了契机,但现有研究多局限于单中心、小样本或特定分型,缺乏对膀胱全层组织结构(包括黏膜、固有层、肌层)的综合分析模型。
为解决上述问题,来自韩国加图立大学、高丽大学等五家医疗中心的研究团队在《Scientific Reports》发表了题为“Multi-institutional validation of AI models for classifying urothelial neoplasms in digital pathology”的研究。该研究构建了一个涵盖12,500张WSI的多中心数据集,包含1,500例正常组织、5,500例非浸润性肿瘤和5,500例浸润性癌,旨在开发能够精准分类膀胱组织病理图像的AI模型。
研究采用的关键技术方法包括:(1)基于云平台MeDIAuto的多人协作病理区域标注与交叉审核;(2)WSI的10倍放大斑块提取(512×512像素)与Macenko染色归一化预处理;(3)四种深度学习模型(ResNet-50、DenseNet-121、EfficientNet-B6、Vision Transformer)的五折交叉验证;(4)类激活热图(CAM)与UMAP降维可视化可解释性分析。

模型性能比较

通过五折交叉验证评估显示,CNN架构模型整体优于Transformer模型。其中EfficientNet-B6表现最佳,准确率为0.913(95% CI, 0.907–0.920),灵敏度0.909,特异性0.956,F1分数0.906,微观平均AUC达0.983。ViT模型则因难以捕捉组织浸润所需的空间结构特征,性能显著偏低(AUC<0.90)。

按浸润深度分层分析

模型在恶性亚组(pT1-pT4)中均保持稳定分类性能。以EfficientNet-B6为例,其对pT1–pT4亚组的正常与非浸润类别区分能力均较优,表明模型对不同浸润程度的肿瘤具有普遍适用性。

可解释性分析

CAM热图显示,EfficientNet-B6与DenseNet-121能聚焦于病理相关区域(如肿瘤边界、浸润前沿),而ViT的注意力分散且常覆盖无关背景。UMAP可视化进一步证实EfficientNet-B6提取的特征在三维空间中类别分离明显,但部分浸润性样本与非浸润类别重叠,提示斑块级分类对边界区域存在局限性。

结论与展望

本研究证实EfficientNet-B6在膀胱尿路上皮肿瘤的多分类任务中具有最优性能与临床转化潜力。其成功源于复合缩放策略对图像分辨率、网络深度与宽度的协同优化,而ViT在病理图像全局结构理解上的不足提示数据特性与模型架构适配的重要性。未来工作需整合多尺度斑块分析、预训练基础模型及更大规模多中心数据,以进一步提升对浸润性边界的识别精度,最终实现膀胱癌自动诊断系统的临床应用。
相关新闻
生物通微信公众号
微信
新浪微博
  • 急聘职位
  • 高薪职位

知名企业招聘

热点排行

    今日动态 | 人才市场 | 新技术专栏 | 中国科学人 | 云展台 | BioHot | 云讲堂直播 | 会展中心 | 特价专栏 | 技术快讯 | 免费试用

    版权所有 生物通

    Copyright© eBiotrade.com, All Rights Reserved

    联系信箱:

    粤ICP备09063491号