GastroNet-5M:构建胃肠道内窥镜基础模型的多中心超大规模数据集及其临床应用突破

【字体: 时间:2025年08月03日 来源:Gastroenterology 25.1

编辑推荐:

  为解决内窥镜AI模型开发中标注数据稀缺、泛化性不足的问题,荷兰阿姆斯特丹大学医学中心团队构建了包含482万张内窥镜图像的GastroNet-5M数据集,通过自监督学习开发的基础模型在17项下游任务中显著提升分类/分割精度,降低50%特定任务数据需求,并增强对不同厂商设备的鲁棒性,为内镜AI的快速部署提供新范式。

  

在医疗人工智能领域,胃肠道内窥镜影像的智能分析一直面临两大瓶颈:一是高质量标注数据获取成本高昂,二是现有模型对跨中心、跨设备数据的泛化能力有限。传统监督学习需要针对每个具体任务(如息肉识别、早癌分级)单独训练模型,这不仅需要大量专业医师标注数据,还容易因训练数据单一导致"水土不服"——当遇到不同品牌内窥镜(如奥林巴斯vs.富士)或不同医院采集规范的图像时,模型性能往往断崖式下降。

针对这一行业痛点,阿姆斯特丹大学医学中心(Amsterdam UMC, University of Amsterdam)的M.R. Jong领衔团队在《Gastroenterology》发表了突破性研究。研究人员收集了2012-2020年间荷兰8家医疗中心的近500万张内窥镜图像,构建了目前全球规模最大的通用内窥镜数据集GastroNet-5M。通过自监督学习(Self-supervised Learning)这一新兴AI训练范式,团队成功开发出可适配多种下游任务的基础模型(Foundation Model)。该模型在不需要人工标注的情况下,直接从海量图像中学习内窥镜影像的深层特征表示,实现了"一次预训练,多任务适配"的技术跨越。

研究采用三项核心技术路线:首先通过多中心协作建立标准化数据采集流程,涵盖不同厂商(如Pentax、Olympus)的电子胃镜/肠镜设备;其次采用对比学习(Contrastive Learning)算法进行自监督预训练,使模型能自动区分正常黏膜与病变特征;最后在17个临床关键任务(包括Barrett食管分级、结直肠息肉分割等)中进行迁移学习验证。

研究结果显示:

  1. 分类与分割性能突破:在食管癌分型任务中,GastroNet-5M预训练模型的曲线下面积(AUC)达0.94,较传统监督学习模型提升12%;在息肉分割任务中,Dice系数提高9.3%。
  2. 数据效率革命:仅需传统方法10%-20%的标注数据即可达到同等性能,这对罕见病(如胃肠间质瘤)的AI开发尤为重要。
  3. 跨设备鲁棒性:当测试集包含未见过品牌的内窥镜图像时,模型性能波动幅度小于5%,显著优于现有方案。

这项研究的里程碑意义在于:首次证明基础模型范式可有效解决内窥镜AI的"数据荒"和"泛化难"问题。GastroNet-5M的开放共享将加速全球内镜AI研发,尤其帮助资源有限地区快速部署高质量诊断工具。未来,这种"预训练+微调"的技术路线或将成为医学影像AI的新标准,为消化系统疾病的早筛早治提供普惠性技术支持。

相关新闻
生物通微信公众号
微信
新浪微博
  • 急聘职位
  • 高薪职位

知名企业招聘

热点排行

    今日动态 | 人才市场 | 新技术专栏 | 中国科学人 | 云展台 | BioHot | 云讲堂直播 | 会展中心 | 特价专栏 | 技术快讯 | 免费试用

    版权所有 生物通

    Copyright© eBiotrade.com, All Rights Reserved

    联系信箱:

    粤ICP备09063491号