基于宽度学习的联邦在线主动迁移学习算法(FOATLBL)在非独立同分布数据中的性能优化研究

【字体: 时间:2025年08月28日 来源:Neurocomputing 6.5

编辑推荐:

  【编辑推荐】本文提出FOATLBL框架,创新性地融合联邦学习(FL)、宽度学习(BL)与主动学习,通过在线宽幅迁移学习(OBTL)和个性化聚合机制,有效解决客户端标注样本少、质量差及计算资源受限等难题,在非独立同分布(non-IID)场景下显著提升模型性能。实验证明其在迁移学习和人体活动识别数据集中优于基线方法。

  

亮点与结论

个性化联邦学习(PFL)

PFL旨在为每个客户端训练适配本地数据的个性化模型,现有方法可分为基于架构和基于相似性的两类。例如FedPer通过划分基础层与个性化层来应对non-IID数据挑战,而相似性方法则利用客户端模型间的相关性优化聚合过程。

理论基础

宽度学习(BL)通过随机生成的映射节点(特征节点Zi=?(XWeiei))和增强节点快速构建模型,其增量学习系统支持动态更新而避免灾难性遗忘(Catastrophic Forgetting)。

问题定义与FOATLBL框架

在K个客户端的FL系统中,每个客户端拥有带标签的源域数据(XS,YS)和每轮新增目标域数据XTt。FOATLBL通过主动宽度学习(ABL)筛选关键样本标注,结合在线宽幅迁移学习(OBTL)快速更新本地模型,并采用负指数函数相似度的个性化聚合算法,使全局模型适配客户端偏好(如图1所示)。

数据集验证

在VisDA域适应数据集和人体活动识别数据中,FOATLBL在non-IID场景下表现优异。例如VisDA的12类跨域任务(如自行车→汽车)中,模型准确率提升显著。

结论

FOATLBL为标注能力受限的PFL提供了高鲁棒性解决方案,其融合迁移学习(TL)、主动学习和个性化聚合的策略,在客户端计算资源有限时仍保持优越性能。未来可进一步优化TL效率与隐私保护机制。

(注:翻译部分严格遵循生命科学领域术语规范,如Catastrophic Forgetting保留英文并标注中文释义,数学符号使用/标签,且避免文献引用标识)

相关新闻
生物通微信公众号
微信
新浪微博
  • 急聘职位
  • 高薪职位

知名企业招聘

热点排行

    今日动态 | 人才市场 | 新技术专栏 | 中国科学人 | 云展台 | BioHot | 云讲堂直播 | 会展中心 | 特价专栏 | 技术快讯 | 免费试用

    版权所有 生物通

    Copyright© eBiotrade.com, All Rights Reserved

    联系信箱:

    粤ICP备09063491号