
-
生物通官微
陪你抓住生命科技
跳动的脉搏
基于Transformer与图注意力网络的混合多示例学习模型TGMIL在胃腺癌分化分级全切片图像自动识别中的应用
【字体: 大 中 小 】 时间:2025年06月27日 来源:BioMedical Engineering OnLine 2.9
编辑推荐:
本研究针对胃腺癌病理诊断中人工标注耗时且主观性强的问题,开发了基于Transformer与图注意力网络(GAT)的混合多示例学习模型TGMIL。该模型通过整合多放大倍数特征金字塔(MMFP)模块,实现了对613例全切片图像(WSI)的无标注自动分类,准确率达73.33%,AUC值达0.86,为提升病理诊断效率与客观性提供了新范式。
胃腺癌诊断的困境与突破
在全球每年超百万新发病例的背景下,胃腺癌(GAC)因其高度异质性和晚期诊断特点,成为肿瘤诊疗领域的重大挑战。传统病理诊断依赖人工显微镜观察,不仅耗时耗力,更因观察者间差异导致诊断一致性不足。尤其对于分化分级——这一与患者预后密切相关的指标,现有方法难以平衡效率与准确性。数字病理时代的到来为这一困境带来转机,但现有深度学习模型多需人工标注,且鲜有能同时捕捉组织空间与上下文信息的解决方案。
针对这一需求,贵州省人民医院与陆军军医大学西南医院的研究团队在《BioMedical Engineering OnLine》发表创新性研究,提出混合多示例学习模型TGMIL。该模型通过融合Transformer的全局注意力机制与图注意力网络(GAT)的空间关联分析,结合多放大倍数特征金字塔(MMFP)模拟病理医师阅片习惯,首次实现了胃腺癌四类分化(正常、高、中、低分化)的全自动无标注分类。
关键技术突破
研究团队从两家医院收集613例胃腺癌患者的全切片图像,采用20x/10x/5x三级放大倍数构建MMFP模块,通过预训练ResNet-50提取特征。TGMIL核心架构包含双注意力流:Transformer流通过多层自注意力(MSA)捕获全局上下文,GAT流则利用加权邻接矩阵(WSI_adj)建模空间拓扑。模型采用Ranger优化器训练,引入WSI级分类损失与patch级聚类损失的双目标优化策略。
系统性验证结果
患者队列特征
数据集涵盖254例正常组织、166例高分化、75例中分化和118例低分化胃腺癌,按7:3比例划分为训练集与测试集。多中心数据来源增强了模型泛化能力。
模型性能比较
在四分类任务中,TGMIL以73.33%准确率显著优于传统MIL(63.45%)、DSMIL(69.99%)等模型。其特异性达91.11%,AUC值0.8608,证明对肿瘤区域的精准聚焦能力。

注意力可视化验证
热力图显示TGMIL能准确聚焦肿瘤区域,与病理医师标注高度吻合。高分化组(HD)注意力分布均匀,低分化组(LD)则呈现弥散模式,反映不同分化程度的组织学特征。

临床价值与展望
该研究首次实现胃腺癌四分化级别的无标注自动分类,突破既往研究仅区分高/低分化的局限。MMFP模块的创新设计模拟了病理医师多尺度观察的认知过程,而双注意力机制则解决了传统方法忽视空间关联的缺陷。尽管存在外部验证不足的局限,但模型在两家三甲医院数据上的稳定表现,为缓解病理医师短缺、提升诊断标准化提供了切实方案。未来研究可探索分化分级与分子特征、预后的关联,推动精准医疗发展。
研究获得贵州省卫生健康委科技基金(gzwkj2024-210)等支持,相关代码与数据可向通讯作者Rongpin Wang申请获取。这一成果标志着数字病理向"无标注智能诊断"迈出关键一步,为其他肿瘤的自动化分析提供了可借鉴的范式。
生物通微信公众号
知名企业招聘