具有双向知识交换的双层半监督协作医学图像分割

《Medical Image Analysis》:Two-level Semi-supervised Collaborative Medical Image Segmentation with Bidirectional Knowledge Exchange

【字体: 时间:2025年10月30日 来源:Medical Image Analysis 11.8

编辑推荐:

  本文提出两阶段协同训练框架,第一阶段通过多模型协同训练生成伪标签,第二阶段模型利用集成伪标签进行分割。为突破性能瓶颈,设计双向知识迁移机制,将第二阶段特征反馈至第一阶段模型,形成正反馈循环。实验表明该方法在多个医学图像数据集上显著优于现有半监督分割模型。

  医学图像分割在智能诊断系统中发挥着关键作用,为医生提供清晰的指导,以辅助疾病检测和病灶评估。随着深度学习技术的快速发展,许多全监督的分割模型,如 UNet、nnUNet 和 HyperDenseNet,已经取得了显著的性能提升,并在实际应用中展现出强大的能力。然而,这些方法通常依赖大量的像素级标注数据才能达到高精度,而创建这样的详细数据集成本高昂且耗时较长,尤其是医学图像的标注需要专业临床知识。因此,半监督分割技术逐渐成为研究热点,它利用少量的标注图像与大量的未标注图像相结合,从而实现高效训练和高精度模型。

半监督医学图像分割方法通常基于一致性学习、对抗训练和对比学习等策略。其中,一致性学习是当前较为流行的一种方法,其核心思想是通过模型自身的输出来稳定学习过程。一致性学习可以分为三种主要范式:自增强(self-ensembling)通过时间或数据增强方式对模型输出进行平均,以增强稳定性;自训练(self-training)则利用对未标注数据的高置信度预测作为伪标签;而协同训练(co-training)则是多个模型相互生成和共享伪标签,从而提升彼此的学习能力。在本文中,我们聚焦于协同训练方法,即通过多个模型之间的相互作用,在一致性学习过程中生成伪标签,实现知识共享。

传统的协同训练方法在利用模型集成方面存在局限,导致训练资源浪费,且分割性能未能充分发挥。根据集成学习理论,多个弱分类器的输出组合通常比单个分类器的输出表现更好。然而,大多数协同训练方法未能充分利用模型集成,从而限制了其整体性能的提升。为了解决这一问题,我们提出了一种两级协同训练结构。在第一级,多个模型通过一致性学习进行协同训练;在第二级,模型的伪标签由第一级模型的集成输出生成。这种层次结构充分利用了协同训练过程中产生的结果,从而显著提升了半监督学习的性能。此外,我们还引入了一种双向知识交换策略,该策略受到 pix2pixHD 的启发,将第二级模型解码器的倒数第二层输出反馈给第一级模型的编码器。由于第二级模型具有更好的性能,这种反馈机制可以进一步提升第一级模型的学习效果,从而在两个层级之间建立双向知识交换,形成正向反馈循环,增强分割能力。

在两级协同训练结构的基础上,我们还设计了三个独立的模型,分别位于第一级和第二级。每个第一级模型与一个对应的第二级模型配对,以保持模型之间的独立性和解耦性。这样不仅提高了模型的整体性能,还增强了一致性学习的效率。通过这种方式,我们的方法在两个层级之间形成了更加紧密的联系,使得模型能够相互促进,从而实现更高效、更准确的医学图像分割。

为了验证所提出方法的有效性,我们在多个广泛使用的基准数据集上进行了实验。实验结果表明,我们的方法在分割精度方面表现出强大的竞争力,并且在多个数据集上均能超越或达到当前最先进的方法。此外,我们还进行了消融实验,以分析不同组件对模型性能的影响。实验结果进一步证明,所提出的两级协同训练结构和双向知识交换策略对提升分割性能具有显著作用。

我们的方法不仅在理论上有所创新,而且在实践中也展现出良好的适应性。在实际应用中,医学图像分割往往面临标注数据不足的问题,而我们的方法通过半监督学习策略,有效缓解了这一挑战。通过引入两个层级的模型结构,我们的方法能够在有限的标注数据基础上,利用未标注数据的隐含信息,从而实现更高的分割精度。此外,双向知识交换机制的引入,使得模型之间能够相互促进,形成正向反馈循环,进一步提升了模型的性能。

在本文中,我们提出了一种新型的半监督医学图像分割框架,称为“两级半监督协同分割与双向知识交换”。该框架首先设计了一个两级协同训练结构,其中第二级模型的伪标签由第一级模型的集成输出生成。这种结构有效利用了之前协同训练方法未充分利用的集成结果,从而显著提升了第二级模型的分割性能。其次,我们引入了一种双向知识交换策略,该策略通过将第二级模型的输出反馈给第一级模型,使得两个层级之间的模型能够相互促进,形成正向反馈循环,最终实现更高效的医学图像分割。

本文的主要贡献包括以下三个方面:第一,我们设计了一种新的两级协同训练结构,该结构在第一级模型之间进行协同训练以强化一致性学习,同时第二级模型的伪标签由第一级模型的集成输出生成。这种方法充分利用了模型集成的优势,使得第二级模型的性能优于单个第一级模型,从而提升了整体的协同训练效果。第二,我们设计了一种新的双向知识交换策略,该策略通过将第二级模型的知识反馈给第一级模型,使得两个层级之间的模型能够相互促进,形成正向反馈循环,从而提升分割性能。第三,我们评估了所提出方法在多个医学图像数据集上的有效性,实验结果表明我们的方法在分割精度方面表现出强大的竞争力,并且在多个数据集上均能超越或达到当前最先进的方法。

为了进一步验证所提出方法的有效性,我们进行了不同标签比例的实验。结果表明,随着标注数据比例的增加,模型的性能也相应提升,这与预期一致,因为更多的标注数据能够提供更准确的监督信号,从而提升模型的分割能力。此外,我们还引入了全监督模型作为基准,如 UNet 或 VNet,以对比所提出方法的性能。实验结果进一步表明,我们的方法在不同标签比例下均能保持较高的分割精度,显示出其在半监督学习中的鲁棒性。

我们的方法不仅在理论上有创新,而且在实际应用中也具有广泛的价值。医学图像分割在临床诊断中至关重要,而我们的方法通过引入半监督学习策略,能够在有限的标注数据基础上,有效利用未标注数据的隐含信息,从而提升分割精度。此外,双向知识交换机制的引入,使得模型之间能够相互促进,形成正向反馈循环,进一步提升了模型的整体性能。这种方法不仅适用于医学图像分割,也可以推广到其他领域的半监督学习任务中。

在实验部分,我们使用了三种医学图像数据集:ISIC 数据集中的皮肤病变图像、ACDC 数据集中的心脏图像、以及来自腹部 CT 扫描的多器官分割数据集(AbdomenCT-1K)和 BraTS-2019 数据集。这些数据集涵盖了不同的医学影像类型,包括皮肤镜图像、心脏MRI图像和腹部CT图像,从而确保了实验的广泛性和代表性。通过在这些数据集上的实验,我们验证了所提出方法的有效性,并进一步分析了不同组件对模型性能的影响。

在消融实验中,我们分别分析了第一级模型和第二级模型的性能,以及双向知识交换机制对整体性能的影响。实验结果表明,第一级模型的协同训练和第二级模型的伪标签生成是提升分割性能的关键因素。此外,双向知识交换机制的引入显著提升了模型的整体性能,使得模型能够相互促进,形成正向反馈循环。通过这种方式,我们的方法在多个数据集上均表现出良好的分割效果,显示出其在半监督学习中的优势。

我们的方法还具有良好的可扩展性。通过引入多个模型,我们的方法能够有效处理不同类型的医学图像,并且在不同数据集上均能保持较高的分割精度。此外,双向知识交换机制的引入,使得模型之间能够相互促进,形成正向反馈循环,从而提升模型的整体性能。这种方法不仅适用于医学图像分割,也可以推广到其他领域的半监督学习任务中。

在讨论部分,我们进一步分析了模型性能与标签比例之间的关系。实验结果表明,随着标签比例的增加,模型的分割精度也随之提高,这与一致性学习的基本原理相吻合。然而,我们也发现,在标签比例较低的情况下,模型的性能仍然能够保持较高水平,这表明我们的方法在半监督学习中具有较强的鲁棒性。此外,我们还分析了不同模型结构对分割性能的影响,发现所提出的两级协同训练结构和双向知识交换策略在提升分割性能方面具有显著优势。

在结论部分,我们总结了本文的主要研究成果。通过引入两级协同训练结构和双向知识交换策略,我们的方法在医学图像分割任务中取得了显著的性能提升。第一级模型的协同训练有效增强了模型的一致性,而第二级模型的伪标签生成充分利用了模型集成的优势,从而提升了整体的分割效果。双向知识交换机制的引入使得模型之间能够相互促进,形成正向反馈循环,进一步提升了模型的性能。通过这种方式,我们的方法在多个数据集上均表现出良好的分割效果,显示出其在半监督学习中的优势。

本文的研究成果为医学图像分割领域提供了新的思路和方法。通过引入半监督学习策略,我们的方法能够有效缓解标注数据不足的问题,同时提升模型的分割性能。此外,双向知识交换机制的引入,使得模型之间能够相互促进,形成正向反馈循环,进一步提升了模型的整体性能。这种方法不仅适用于医学图像分割,也可以推广到其他领域的半监督学习任务中。通过这种方式,我们的方法为医学图像分割提供了新的可能性,并为未来的相关研究奠定了基础。
相关新闻
生物通微信公众号
微信
新浪微博
  • 急聘职位
  • 高薪职位

知名企业招聘

热点排行

    今日动态 | 人才市场 | 新技术专栏 | 中国科学人 | 云展台 | BioHot | 云讲堂直播 | 会展中心 | 特价专栏 | 技术快讯 | 免费试用

    版权所有 生物通

    Copyright© eBiotrade.com, All Rights Reserved

    联系信箱:

    粤ICP备09063491号