基于脉冲神经网络的神经启发式持续多标签学习框架NIMBLE:解决动态数据流中的稳定性-可塑性平衡难题

【字体: 时间:2025年08月17日 来源:Engineering Applications of Artificial Intelligence 8

编辑推荐:

  本文推荐一种突破性神经形态计算框架NIMBLE(Neuro-Inspired Continual Multi-Label Learning),通过脉冲神经网络(SNN)的生物学启发机制,首次实现任务无关(task-agnostic)且无记忆(memory-free)的持续多标签学习(CMLL)。该框架采用动态演化的兴奋-抑制中间神经元系统,结合胜者通吃(winner-takes-all)的脉冲时间边际最大化机制,在15个跨领域真实数据集中显著提升micro-F1(最高增益0.26)和Jaccard分数(最高增益0.18),为医疗诊断、气候监测等动态场景提供新型解决方案。

  

Highlight

• NIMBLE首次将脉冲神经网络(SNN)应用于任务无关、无记忆的持续多标签学习(CMLL)领域

• 动态演化的兴奋/抑制中间神经元系统通过胜者通吃机制(winner-takes-all)实现明确的多标签预测

• 脉冲时间边际最大化驱动局部权重更新,在GNegative数据集上取得0.26(micro-F1)和0.18(Jaccard)的显著提升

Continual multi-label learning problem formulation

真实世界数据以连续流形式出现,每个样本x∈Rm对应多标签向量y∈{0,1}r。任务序列T1,T2,...中,每个任务Ti包含Ni个样本和λi个标签(含μi≥1个新标签),且可能包含历史任务的标签。这种动态特性使传统记忆回放方法因标签不平衡而失效。

Datasets and continual multi-label learning settings

实验涵盖15个跨领域真实数据集:Emotions(音乐情绪识别)、Flags(国旗属性)、Yeast(基因功能)、FoodTruck(餐饮推荐)、Scene(场景分类)、Birds(鸟类特征)、GPositive(革兰氏阳性菌)、Plant(植物特性)等。采用任务增量(3-20个任务)和类别增量设置,对比CIFDM、EWC、SI、LwF等基准方法。

Conclusion and future work

NIMBLE作为首个SNN驱动的CMLL框架,通过神经可塑性启发的动态架构和局部学习规则,在保持历史知识稳定性的同时适应新标签。未来将探索脉冲时序编码优化,并拓展至医疗影像实时诊断等场景。

相关新闻
生物通微信公众号
微信
新浪微博
  • 急聘职位
  • 高薪职位

知名企业招聘

热点排行

    今日动态 | 人才市场 | 新技术专栏 | 中国科学人 | 云展台 | BioHot | 云讲堂直播 | 会展中心 | 特价专栏 | 技术快讯 | 免费试用

    版权所有 生物通

    Copyright© eBiotrade.com, All Rights Reserved

    联系信箱:

    粤ICP备09063491号