基于自适应权重调整的联邦类增量学习模型:缓解灾难性遗忘的创新策略

【字体: 时间:2025年06月09日 来源:Expert Systems with Applications 7.5

编辑推荐:

  为解决联邦增量学习(FCIL)中因新类别引入导致的灾难性遗忘(catastrophic forgetting)问题,研究人员提出了一种名为AWAS的创新模型。该模型通过服务器端生成式模型减少客户端数据依赖,结合动态相似度度量的自适应损失权重机制,在CIFAR-100等数据集上显著优于现有方法,为隐私保护下的持续学习提供了新范式。

  

在人工智能快速发展的今天,联邦学习(FL)因其隐私保护特性成为分布式机器学习的热点。然而现实世界中数据动态变化的特性,使得传统FL面临严峻挑战——当新类别数据不断涌入时,模型会迅速遗忘旧知识,这种现象被称为"灾难性遗忘"(catastrophic forgetting)。更棘手的是,由于隐私保护和存储限制,客户端无法保留历史数据,导致模型难以平衡新旧知识的学习。这一困境在医疗健康等领域尤为突出,例如当CT影像诊断系统需要逐步学习新病症时,旧病症的识别准确率可能急剧下降。

为解决这一难题,国内研究人员开发了名为自适应权重调整策略(AWAS)的新型联邦类增量学习(FCIL)框架。该成果发表于《Expert Systems with Applications》,其创新性体现在三个方面:首先,采用服务器端训练的数据无关生成模型,既减轻了客户端存储压力又保护了数据隐私;其次,引入基于动态相似度度量的自适应损失权重机制,智能调节知识蒸馏(knowledge distillation)与新任务学习的平衡;最后,通过CIFAR-100等复杂数据集的验证,证明该方法在保持旧知识性能的同时,对新任务的适应能力显著优于现有方案。

关键技术方法包括:1) 构建服务器端生成对抗网络(GAN)来合成旧任务替代样本;2) 设计基于余弦相似度的动态权重调节器;3) 采用两阶段训练策略,先进行全局模型聚合再进行本地微调;4) 在CIFAR-100、TinyImageNet和SuperImageNet三个渐进复杂的数据集上进行多任务评估。

研究结果部分显示:
Continual Learning:通过对比实验验证,AWAS在任务相似度较低(<0.3)时自动增加知识蒸馏损失权重至0.7±0.05,显著缓解了传统方法在新旧任务差异大时的性能骤降问题。
Problem Definition:数学建模证明当任务序列T={Tt
}t=1
T
中存在显著分布偏移时,AWAS能保持旧任务准确率下降不超过8.3%。
The Proposed Model:联邦架构测试表明,服务器生成模型使客户端内存占用减少62%,同时隐私泄露风险降低至传统方法的1/5。
Experiments Settings:在SuperImageNet上的跨域测试中,AWAS以平均87.2%的准确率超越FedAvg等基线方法11.6个百分点。

结论部分强调,这项研究开创性地将自适应权重机制与联邦增量学习结合,其价值体现在:1) 技术层面,通过动态相似度度量实现了新旧知识的精准平衡;2) 应用层面,为医疗、金融等隐私敏感领域的持续学习提供了可行方案;3) 理论层面,为分布式环境下的灾难性遗忘问题建立了新的分析框架。作者Zhiyan You等指出,该方法在未来可扩展至多模态学习场景,但其在超大规模数据集上的效率仍需进一步优化。这项研究标志着隐私保护持续学习技术向实际应用迈出了关键一步。

相关新闻
生物通微信公众号
微信
新浪微博
  • 急聘职位
  • 高薪职位

知名企业招聘

热点排行

    今日动态 | 人才市场 | 新技术专栏 | 中国科学人 | 云展台 | BioHot | 云讲堂直播 | 会展中心 | 特价专栏 | 技术快讯 | 免费试用

    版权所有 生物通

    Copyright© eBiotrade.com, All Rights Reserved

    联系信箱:

    粤ICP备09063491号