
-
生物通官微
陪你抓住生命科技
跳动的脉搏
针对模型异构性个性化联邦学习的专家组合
《IEEE Networking Letters》:Mixture of Specialized Experts for Model-Heterogeneous Personalized Federated Learning
【字体: 大 中 小 】 时间:2025年11月19日 来源:IEEE Networking Letters CS5.3
编辑推荐:
联邦学习在解决数据异构性和模型结构差异问题时,常面临性能与计算成本的平衡难题。本文提出FedMoEKD算法,基于混合专家(MoE)框架引入动态路由机制和解耦训练策略,通过知识蒸馏强化本地专家模型的专业性,在CIFAR-10数据集上较FedProto提升0.58%准确率,同时降低58%计算开销,且在多个数据集上验证了其收敛速度和模型精度优势。
联邦学习(FL)是一种去中心化的学习范式,它能够在不共享原始数据的情况下实现协作式模型训练,从而在隐私保护方面具有固有的优势。尽管潜力巨大,但由于客户端之间的异质性,FL尚未实现最初设想的平稳和稳定的训练过程。这种异质性源于本地数据分布的差异以及不同客户端对不同模型架构的需求。