
-
生物通官微
陪你抓住生命科技
跳动的脉搏
Flashback学习:通过双向知识流协调持续学习中的稳定性与可塑性平衡
【字体: 大 中 小 】 时间:2025年06月16日 来源:Neural Networks 6.0
编辑推荐:
为解决深度神经网络在持续学习(CL)中面临的稳定性-可塑性困境,研究人员提出Flashback Learning(FL)方法,通过构建稳定知识库(SKB)和可塑知识库(PKB),采用两阶段训练实现双向知识流调控。该方法在Class-Incremental(CI)和Task-Incremental(TI)场景下平均准确率分别提升4.91%和3.51%,显著改善了LUCIR、iCaRL等主流CL方法的性能,为人工智能模型的终身学习提供了新思路。
在人工智能领域,深度神经网络(DNN)面临着一个根本性挑战——如何像人类大脑一样持续学习新知识而不遗忘旧技能。这个被称为"稳定性-可塑性困境"的问题长期困扰着研究者:模型过于保守会导致新任务学习能力(可塑性)下降,过于激进又会导致先前任务知识(稳定性)的灾难性遗忘(Catastrophic Forgetting, CF)。传统持续学习(Continual Learning, CL)方法往往偏重稳定性而牺牲可塑性,导致模型在新任务上的表现不尽如人意。
来自CSIRO Robotics的研究团队在《Neural Networks》发表的研究中,提出了一种名为Flashback Learning(FL)的创新方法。受神经科学中记忆巩固机制的启发,该方法模拟了大脑海马体与新皮层之间的双向信息流动,通过构建稳定知识库(Stable Knowledge Base, SKB)和可塑知识库(Plastic Knowledge Base, PKB),实现了对模型更新的双向调控。研究团队在Split CIFAR-10/100和Tiny ImageNet等标准CL基准测试中验证了FL的有效性。
关键技术方法包括:1)两阶段训练框架(Phase 1快速获取新任务知识,Phase 2双向知识流平衡);2)四类CL方法适配(知识蒸馏、记忆回放、参数正则化、动态架构);3)基于Fisher信息矩阵(FIM)的重要参数识别;4)特征空间插值优化。研究采用了Class-Incremental(CI)和Task-Incremental(TI)两种标准评估场景。
研究结果部分,作者通过系统的实验验证了FL的优越性:
Flashback learning
FL通过两阶段训练实现知识平衡:Phase 1专注获取新任务知识并构建PKB;Phase 2通过SKB和PKB的双向调控实现平衡。理论分析表明,FL的梯度更新会驱动模型输出向稳定响应f(x;θs
)和初级新响应f(x;θp
)的插值方向移动。
Stability-plasticity analysis
梯度分解显示,FL在传统CL方法的稳定性梯度基础上,增加了可塑梯度成分。当αs
=αp
时,模型会均衡考虑新旧知识,在Split CIFAR-100上实现了3.5%的准确率提升。
在讨论部分,作者指出FL的创新性在于:1)首次在CL中实现真正的双向知识流;2)通用性强,可适配四大类CL方法;3)训练预算不变情况下显著提升性能。特别是在更具挑战性的ImageNet数据集上,FL仍能保持优势,显示出良好的扩展性。
这项研究的重要意义在于:为CL领域提供了首个系统性的稳定性-可塑性平衡框架;其受神经科学启发的设计思路为脑启发AI研究提供了新范例;实际应用中,FL可提升AI系统在动态环境中的适应能力,为医疗诊断、自动驾驶等需要持续学习的场景提供了技术支撑。未来工作可探索更精细的知识库构建策略和自适应平衡机制。
生物通微信公众号
知名企业招聘