
-
生物通官微
陪你抓住生命科技
跳动的脉搏
BGEFL:通过强盗梯度估计在资源受限的网络中实现通信效率高的联邦学习
《IEEE Transactions on Networking》:BGEFL: Enabling Communication-Efficient Federated Learning via Bandit Gradient Estimation in Resource-Constrained Networks
【字体: 大 中 小 】 时间:2025年11月19日 来源:IEEE Transactions on Networking
编辑推荐:
联邦学习通过分布式隐私保护训练提升AIoT性能,但模型参数与梯度更新导致通信成本高昂。本文提出基于bandit反馈的梯度估计联邦学习框架BGEFL,通过有限本地函数值反馈直接估计梯度,实现O(1)通信复杂度,适用于资源受限网络,并在多数据集上验证有效性。
联邦学习(FL)[1],[2]作为一种在去中心化和保护隐私的同时学习全局模型的方法,已经逐渐成为最显著的范式,同时保持客户端数据在本地。凭借其分布式和隐私保护的优势,FL推动了许多以大数据为导向和由AI驱动的应用的发展,特别是在物联网场景中,如智慧城市[3],[4]、移动医疗[5]、人类活动识别[6]和自动驾驶[7]。一般来说,FL可以训练一个由参数d表示的AI模型。然而,FL经常因为上传高维梯度而面临较高的通信开销,尤其是在资源受限的网络中,设备的计算和通信资源通常有限。这可能会降低训练性能,因为现代深度神经网络(DNN)模型通常包含数百万个参数,而参与者大多通过带宽有限且不可靠的无线通信与参数服务器(也称为聚合器)相连。需要注意的是,由于每个模型的参数可以用不同的浮点格式表示,例如8位、16位或32位,我们在理论上使用模型维度d来表征通信效率的阶数。因此,在本文中,我们根据模型维度来讨论通信复杂度。
生物通微信公众号
知名企业招聘