将集成学习原理融入协同教学,以构建抗噪声的深度神经网络

《IEEE Access》:Integrating Ensemble Principles Into Co-Teaching for Noise-Tolerant Deep Neural Networks

【字体: 时间:2025年11月12日 来源:IEEE Access 3.6

编辑推荐:

  本文提出一种新型方法 Ensemble Co-Teaching,通过集成协同训练与增强学习,引入权重扰动机制以保持双网络多样性,有效识别并减少标签噪声。实验表明,该方法在MNIST、CIFAR-10和ImageNet数据集上均优于Co-Teaching和Stochastic Co-Teaching,尤其在45%高噪声下提升达2.4pp,验证了其增强噪声鲁棒性和模型泛化能力。

  在当前的数据处理与机器学习领域,数据集中的标签噪声是一个广泛存在的问题,尤其是在现实世界的应用场景中。标签噪声可以源于数据采集过程中的错误,专家在标注数据时的主观偏差,或者故意修改标签以误导模型。这类噪声会显著影响模型的训练效果,尤其是在深度神经网络中,由于其强大的拟合能力,容易将错误的标签“记住”,从而导致模型在面对真实数据时表现不佳。为了应对这一挑战,研究人员提出了多种方法,旨在提高模型在标签噪声环境下的鲁棒性。其中,Co-Teaching及其变体,如Stochastic Co-Teaching,通过引入多个模型协同训练的机制,有效减少了标签噪声带来的影响。然而,这些方法在训练过程中可能会出现模型权重收敛的问题,导致样本选择偏差,从而影响模型的泛化能力。

为了解决上述问题,本文提出了一种新的方法,称为Ensemble Co-Teaching。该方法的核心思想是将集成学习(Ensemble Learning)的理念引入到Co-Teaching框架中,通过在训练过程中对模型权重进行扰动,促使两个网络保持一定的差异性,从而避免权重收敛带来的负面影响。这种方法不仅增强了模型对噪声样本的识别能力,还通过提高网络间的多样性,提升了模型的整体性能。具体而言,Ensemble Co-Teaching在每一轮训练结束后对其中一个网络的权重引入随机扰动,使得其学习路径更加多样化,而另一个网络则基于较小的损失样本进行训练,保持其稳定性。这种设计使得两个网络在面对噪声标签时能够产生不同的预测结果,从而在样本选择过程中更有效地识别出那些容易被噪声干扰的样本。

与传统的Co-Teaching相比,Ensemble Co-Teaching的改进之处在于其通过扰动机制有效避免了样本选择偏差。在Co-Teaching中,随着训练的进行,两个网络的权重可能会逐渐趋同,导致其在面对噪声样本时产生一致的错误预测,从而降低模型的鲁棒性。而Ensemble Co-Teaching通过引入扰动,确保两个网络的权重在训练过程中保持一定的差异,从而在面对噪声时,能够更有效地识别出那些可能被错误标记的样本。此外,该方法还通过将两个网络在每一轮训练中所选择的样本进行合并,从而确保模型能够利用更多多样化的样本进行训练,提高其对真实数据的泛化能力。

在实验部分,本文在多个基准数据集上进行了测试,包括MNIST、CIFAR-10和ImageNet。其中,MNIST是一个经典的手写数字识别数据集,包含了60,000个训练样本和10,000个测试样本,而CIFAR-10和ImageNet则是更复杂的图像分类数据集,包含更多的类别和更复杂的图像特征。实验结果显示,在45%的非对称标签噪声条件下,Ensemble Co-Teaching的测试准确率比Co-Teaching提高了2.4个百分点,显示出其在高噪声环境下的显著优势。此外,在对称标签噪声条件下,如20%和50%的噪声率,Ensemble Co-Teaching也表现出良好的鲁棒性,其性能与现有方法相当,甚至在某些情况下更优。

为了进一步验证Ensemble Co-Teaching的有效性,本文还进行了消融实验,比较了不同权重扰动策略对模型性能的影响。实验结果表明,仅对一个网络进行扰动的策略比对两个网络进行扰动的策略更加有效,能够更好地平衡网络的多样性与训练的稳定性。此外,通过参数敏感性分析,本文发现Beta分布的参数选择对模型性能有显著影响,尤其是在噪声分布较为偏斜的情况下,模型的性能可能会受到影响。因此,选择合适的Beta分布参数对于提高Ensemble Co-Teaching的鲁棒性至关重要。

Ensemble Co-Teaching的提出不仅在理论上具有创新性,而且在实践中也展现出良好的效果。通过引入权重扰动机制,该方法能够在训练过程中有效防止模型权重的收敛,从而提升其对噪声样本的识别能力。此外,该方法在处理不同类型的标签噪声时表现出色,尤其是在非对称噪声条件下,其性能优势更为明显。这些结果表明,Ensemble Co-Teaching是一种有效的鲁棒训练方法,能够在复杂的标签噪声环境下提高深度神经网络的泛化能力。

尽管Ensemble Co-Teaching在多个实验中表现出色,但该方法也存在一定的局限性。首先,由于需要同时训练两个模型,其计算成本相对较高,可能会对资源有限的环境造成一定的负担。其次,该方法对超参数的选择较为敏感,尤其是在Beta分布的参数设置上,需要根据具体的噪声情况进行调整。因此,未来的研究可以探索更高效的计算框架,以减少训练成本,同时保持模型的鲁棒性。此外,还可以尝试将Ensemble Co-Teaching的方法应用于其他领域,如自然语言处理(NLP)和半监督学习,以验证其在不同任务中的适用性。

综上所述,Ensemble Co-Teaching是一种有效的鲁棒训练方法,能够显著提高深度神经网络在标签噪声环境下的性能。通过引入权重扰动机制,该方法在训练过程中保持了网络间的多样性,从而有效避免了样本选择偏差和权重收敛的问题。实验结果表明,该方法在多个数据集和不同噪声条件下均表现出色,尤其是在高噪声场景中,其性能优势更为明显。未来的研究可以进一步优化该方法的计算效率,探索其在更多应用场景中的潜力,以推动鲁棒学习技术的发展。
相关新闻
生物通微信公众号
微信
新浪微博
  • 急聘职位
  • 高薪职位

知名企业招聘

热点排行

    今日动态 | 人才市场 | 新技术专栏 | 中国科学人 | 云展台 | BioHot | 云讲堂直播 | 会展中心 | 特价专栏 | 技术快讯 | 免费试用

    版权所有 生物通

    Copyright© eBiotrade.com, All Rights Reserved

    联系信箱:

    粤ICP备09063491号