Flashback学习:通过双向知识流协调持续学习中的稳定性与可塑性平衡

【字体: 时间:2025年06月16日 来源:Neural Networks 6.0

编辑推荐:

  为解决深度神经网络在持续学习(CL)中面临的稳定性-可塑性困境,研究人员提出Flashback Learning(FL)方法,通过构建稳定知识库(SKB)和可塑知识库(PKB),采用两阶段训练实现双向知识流调控。该方法在Class-Incremental(CI)和Task-Incremental(TI)场景下平均准确率分别提升4.91%和3.51%,显著改善了LUCIR、iCaRL等主流CL方法的性能,为人工智能模型的终身学习提供了新思路。

  

在人工智能领域,深度神经网络(DNN)面临着一个根本性挑战——如何像人类大脑一样持续学习新知识而不遗忘旧技能。这个被称为"稳定性-可塑性困境"的问题长期困扰着研究者:模型过于保守会导致新任务学习能力(可塑性)下降,过于激进又会导致先前任务知识(稳定性)的灾难性遗忘(Catastrophic Forgetting, CF)。传统持续学习(Continual Learning, CL)方法往往偏重稳定性而牺牲可塑性,导致模型在新任务上的表现不尽如人意。

来自CSIRO Robotics的研究团队在《Neural Networks》发表的研究中,提出了一种名为Flashback Learning(FL)的创新方法。受神经科学中记忆巩固机制的启发,该方法模拟了大脑海马体与新皮层之间的双向信息流动,通过构建稳定知识库(Stable Knowledge Base, SKB)和可塑知识库(Plastic Knowledge Base, PKB),实现了对模型更新的双向调控。研究团队在Split CIFAR-10/100和Tiny ImageNet等标准CL基准测试中验证了FL的有效性。

关键技术方法包括:1)两阶段训练框架(Phase 1快速获取新任务知识,Phase 2双向知识流平衡);2)四类CL方法适配(知识蒸馏、记忆回放、参数正则化、动态架构);3)基于Fisher信息矩阵(FIM)的重要参数识别;4)特征空间插值优化。研究采用了Class-Incremental(CI)和Task-Incremental(TI)两种标准评估场景。

研究结果部分,作者通过系统的实验验证了FL的优越性:

  1. Flashback learning
    FL通过两阶段训练实现知识平衡:Phase 1专注获取新任务知识并构建PKB;Phase 2通过SKB和PKB的双向调控实现平衡。理论分析表明,FL的梯度更新会驱动模型输出向稳定响应f(x;θs
    )和初级新响应f(x;θp
    )的插值方向移动。

  2. Stability-plasticity analysis
    梯度分解显示,FL在传统CL方法的稳定性梯度基础上,增加了可塑梯度成分。当αs
    p
    时,模型会均衡考虑新旧知识,在Split CIFAR-100上实现了3.5%的准确率提升。

在讨论部分,作者指出FL的创新性在于:1)首次在CL中实现真正的双向知识流;2)通用性强,可适配四大类CL方法;3)训练预算不变情况下显著提升性能。特别是在更具挑战性的ImageNet数据集上,FL仍能保持优势,显示出良好的扩展性。

这项研究的重要意义在于:为CL领域提供了首个系统性的稳定性-可塑性平衡框架;其受神经科学启发的设计思路为脑启发AI研究提供了新范例;实际应用中,FL可提升AI系统在动态环境中的适应能力,为医疗诊断、自动驾驶等需要持续学习的场景提供了技术支撑。未来工作可探索更精细的知识库构建策略和自适应平衡机制。

相关新闻
生物通微信公众号
微信
新浪微博
  • 急聘职位
  • 高薪职位

知名企业招聘

热点排行

    今日动态 | 人才市场 | 新技术专栏 | 中国科学人 | 云展台 | BioHot | 云讲堂直播 | 会展中心 | 特价专栏 | 技术快讯 | 免费试用

    版权所有 生物通

    Copyright© eBiotrade.com, All Rights Reserved

    联系信箱:

    粤ICP备09063491号