
-
生物通官微
陪你抓住生命科技
跳动的脉搏
神经形态元可塑性模型实现抗灾难性遗忘的自适应持续学习
【字体: 大 中 小 】 时间:2025年06月16日 来源:Neural Networks 6.0
编辑推荐:
为解决深度神经网络(DNN)在持续学习中的灾难性遗忘问题,研究人员受人类工作记忆启发,提出了一种基于元可塑性(metaplasticity)的混合突触模型。该模型通过随机混合稳定与灵活突触,实现了无需预处理即可抵抗灾难性遗忘的序列学习,在输入长度变化时仍保持记忆平衡,并展现出对数据中毒攻击的鲁棒性。这项发表于《Neural Networks》的研究为类脑持续学习提供了新范式。
在人工智能领域,深度神经网络(DNN)虽在单任务中表现卓越,却面临持续学习中的致命缺陷——灾难性遗忘(catastrophic forgetting)。当网络学习新任务时,会像沙滩上的脚印被潮水抹去般迅速丢失旧记忆。这种现象源于神经网络突触的过度可塑性,新信息不断覆盖旧权重,形成所谓的"稳定性-可塑性困境"(stability-plasticity dilemma)。传统解决方案如添加新节点或记忆回放,不仅需要额外资源,还伴随复杂计算,难以实现人类大脑般优雅的持续学习能力。
有趣的是,人类大脑通过"序列位置效应"(serial position effect)完美平衡新旧记忆——序列开头(首因效应)和结尾(近因效应)的项目总被更好记住。这种能力源自突触元可塑性(metaplasticity),即突触根据历史活动调节自身可塑性的特性。受此启发,研究人员构建了突破性的神经形态元可塑性模型。
该研究采用经典AlexNet架构,在其全连接层引入"突触灵活性"(synaptic flexibility)概念:灵活性为0的突触完全稳定,1则完全灵活。通过随机混合不同灵活性突触,构建了三种网络:传统模型(全灵活突触)、稳定模型(低灵活性)和混合模型(灵活性0-1均匀分布)。使用自建的双位MNIST数据集进行持续学习测试,网络需依次学习10个两位数分类任务。
关键实验技术包括:1) 构建双位MNIST序列数据集;2) 设计突触灵活性调节算法,通过双曲正切函数控制学习率缩放;3) 采用记忆性能量化方法,对比原始数据与标签随机置换数据的分类准确率;4) 实施数据中毒攻击实验,测试模型鲁棒性。
3.1 稳定与不稳定突触共存产生序列位置效应
混合模型成功复现人类工作记忆特征:传统模型仅保留最后6项(近因效应),稳定模型记住前4项(首因效应),而混合模型对所有10项保持高于随机水平的记忆,形成典型的U型序列位置曲线。这种效应源于稳定突触固化早期记忆,灵活突触持续编码新信息。
3.2 序列位置效应在项目数量变化时保持稳健
当学习序列延长至30项时,混合模型展现出动态资源分配能力:平均单项目性能随总数增加而降低,但记忆项目总数持续增长,实现"容量-性能权衡"(capacity-performance tradeoff)。其总记忆量(gross memory)显著高于传统模型,并在项目超载时渐近饱和。
3.3 重复训练提升记忆性能
通过9次重复序列训练,混合模型表现出类Hebb重复效应(Hebb repetition effect),中间项目的记忆显著增强。这种频率依赖的巩固使模型能抵抗数据中毒攻击——在9次正确训练后加入错误标签数据时,混合模型仍保持10项记忆,而传统模型完全失效。
3.4 高频项目获得选择性增强
当不同项目呈现频率(1-10次)差异时,混合模型的记忆性能与呈现频率显著相关(r=0.92),而传统模型仅依赖项目位置(r=0.12)。这表明混合模型能自主将资源从低频项目重新分配给高频项目。
这项研究开创性地证明,简单混合不同灵活性突触即可实现类脑持续学习,无需复杂架构修改或外部存储。其重要意义体现在三方面:首先,为DNN的灾难性遗忘提供了生物学合理的解决方案,通过模仿大脑突触组织原理,实现了"设置即遗忘"(set-and-forget)的持续学习;其次,揭示了元可塑性在平衡记忆保留与新知识获取中的核心作用,为理解神经编码提供新视角;最后,开发的频率依赖记忆过滤机制,为构建抗干扰人工智能系统开辟了新途径。该模型特别适合资源受限的嵌入式设备,其动态资源分配特性在物联网、自动驾驶等需要持续学习的场景中具有广阔应用前景。
研究也存在值得探索的局限:当前模型使用前馈网络,而生物神经系统依赖大量循环连接;实验仅在静态图像分类任务验证,未来需拓展到时序数据处理。这些发现为新一代神经形态计算芯片的设计提供了理论框架,推动人工智能向更接近人类学习方式的方向发展。
生物通微信公众号
知名企业招聘