BGEFL:通过强盗梯度估计在资源受限的网络中实现通信效率高的联邦学习

《IEEE Transactions on Networking》:BGEFL: Enabling Communication-Efficient Federated Learning via Bandit Gradient Estimation in Resource-Constrained Networks

【字体: 时间:2025年11月19日 来源:IEEE Transactions on Networking

编辑推荐:

  联邦学习通过分布式隐私保护训练提升AIoT性能,但模型参数与梯度更新导致通信成本高昂。本文提出基于bandit反馈的梯度估计联邦学习框架BGEFL,通过有限本地函数值反馈直接估计梯度,实现O(1)通信复杂度,适用于资源受限网络,并在多数据集上验证有效性。

  

摘要:

联邦学习(FL)在分布式机器学习中实现了先进的性能,并同时保护了数据隐私,这促进了物联网(AIoT)的发展。然而,FL受到高昂通信成本的限制,因为需要在聚合器和参与者之间多轮交换大量的模型参数和模型更新(例如梯度)。在资源受限的网络中,这种挑战尤为突出,因为设备的计算和通信能力往往有限。现有的研究主要集中在通过本地训练和模型/梯度压缩来提高通信效率;然而,从梯度估计的角度研究FL的通信效率仍然是一个未探索的领域。在本文中,我们通过系统地研究通信效率高的FL中的梯度估计来填补这一空白。我们提出了一种基于强盗算法的、具有梯度估计意识的FL框架(BGFL),该框架能够在有限的强盗算法反馈(即它们的本地函数值)下直接估计参与者的梯度。我们证明了BGFL具有O(1)的通信复杂度,即每个客户端仅在上行链路上传一个点的反馈,从而实现常数大小的通信。此外,我们的基于强盗算法的梯度估计器具有通信效率高、无偏且稳定的特点。我们证明了BGFL在训练强凸模型、一般凸模型和非凸模型时的收敛性能。最后,我们在多个数据集上评估了我们的BGFL,实验结果证明了其有效性。

引言

联邦学习(FL)[1],[2]作为一种在去中心化和保护隐私的同时学习全局模型的方法,已经逐渐成为最显著的范式,同时保持客户端数据在本地。凭借其分布式和隐私保护的优势,FL推动了许多以大数据为导向和由AI驱动的应用的发展,特别是在物联网场景中,如智慧城市[3],[4]、移动医疗[5]、人类活动识别[6]和自动驾驶[7]。一般来说,FL可以训练一个由参数d表示的AI模型。然而,FL经常因为上传高维梯度而面临较高的通信开销,尤其是在资源受限的网络中,设备的计算和通信资源通常有限。这可能会降低训练性能,因为现代深度神经网络(DNN)模型通常包含数百万个参数,而参与者大多通过带宽有限且不可靠的无线通信与参数服务器(也称为聚合器)相连。需要注意的是,由于每个模型的参数可以用不同的浮点格式表示,例如8位、16位或32位,我们在理论上使用模型维度d来表征通信效率的阶数。因此,在本文中,我们根据模型维度来讨论通信复杂度。

相关新闻
生物通微信公众号
微信
新浪微博
  • 搜索
  • 国际
  • 国内
  • 人物
  • 产业
  • 热点
  • 科普
  • 急聘职位
  • 高薪职位

知名企业招聘

热点排行

    今日动态 | 人才市场 | 新技术专栏 | 中国科学人 | 云展台 | BioHot | 云讲堂直播 | 会展中心 | 特价专栏 | 技术快讯 | 免费试用

    版权所有 生物通

    Copyright© eBiotrade.com, All Rights Reserved

    联系信箱:

    粤ICP备09063491号