
-
生物通官微
陪你抓住生命科技
跳动的脉搏
基于宽度学习的联邦在线主动迁移学习算法(FOATLBL)在非独立同分布数据中的性能优化研究
【字体: 大 中 小 】 时间:2025年08月28日 来源:Neurocomputing 6.5
编辑推荐:
【编辑推荐】本文提出FOATLBL框架,创新性地融合联邦学习(FL)、宽度学习(BL)与主动学习,通过在线宽幅迁移学习(OBTL)和个性化聚合机制,有效解决客户端标注样本少、质量差及计算资源受限等难题,在非独立同分布(non-IID)场景下显著提升模型性能。实验证明其在迁移学习和人体活动识别数据集中优于基线方法。
亮点与结论
个性化联邦学习(PFL)
PFL旨在为每个客户端训练适配本地数据的个性化模型,现有方法可分为基于架构和基于相似性的两类。例如FedPer通过划分基础层与个性化层来应对non-IID数据挑战,而相似性方法则利用客户端模型间的相关性优化聚合过程。
理论基础
宽度学习(BL)通过随机生成的映射节点(特征节点Zi=?(XWei+βei))和增强节点快速构建模型,其增量学习系统支持动态更新而避免灾难性遗忘(Catastrophic Forgetting)。
问题定义与FOATLBL框架
在K个客户端的FL系统中,每个客户端拥有带标签的源域数据(XS,YS)和每轮新增目标域数据XTt。FOATLBL通过主动宽度学习(ABL)筛选关键样本标注,结合在线宽幅迁移学习(OBTL)快速更新本地模型,并采用负指数函数相似度的个性化聚合算法,使全局模型适配客户端偏好(如图1所示)。
数据集验证
在VisDA域适应数据集和人体活动识别数据中,FOATLBL在non-IID场景下表现优异。例如VisDA的12类跨域任务(如自行车→汽车)中,模型准确率提升显著。
结论
FOATLBL为标注能力受限的PFL提供了高鲁棒性解决方案,其融合迁移学习(TL)、主动学习和个性化聚合的策略,在客户端计算资源有限时仍保持优越性能。未来可进一步优化TL效率与隐私保护机制。
(注:翻译部分严格遵循生命科学领域术语规范,如Catastrophic Forgetting保留英文并标注中文释义,数学符号使用/标签,且避免文献引用标识)
生物通微信公众号
知名企业招聘