无线网络中基于自适应Transformer剪枝与超网络驱动的个性化联邦学习新框架
《IEEE Transactions on Machine Learning in Communications and Networking》:Personalized Federated Learning with Adaptive Transformer Pruning and Hypernetwork-Driven Personalization in Wireless Networks
【字体:
大
中
小
】
时间:2025年12月11日
来源:IEEE Transactions on Machine Learning in Communications and Networking
编辑推荐:
为解决无线边缘部署Transformer模型时面临的高通信开销、延迟和能耗等挑战,研究人员开展了名为PFL-TPP的个性化联邦学习框架研究。该框架通过动态可学习阈值剪枝前馈层(FFL)减少计算负担,并利用服务器端超网络生成个性化自注意力层(SAL)参数,在CIFAR-100和Tiny-ImageNet数据集上实现高达82.73%的能耗节约和86%训练时间缩减,同时保持模型精度,为资源受限环境下的Transformer应用提供了通信高效的解决方案。
随着物联网设备和第六代(6G)技术的快速发展,无线网络正以前所未有的速度产生海量异构数据。这些数据为智慧城市、医疗保健和工业自动化等领域带来了巨大机遇,但同时也带来了严峻挑战:如何在保证数据隐私的前提下,有效处理这些分布不均的数据?传统机器学习方法往往需要将数据集中处理,这在隐私敏感的无线网络环境中显然不可行。更棘手的是,Transformer模型虽然能有效捕捉复杂数据关系,但其庞大的参数量导致高计算复杂度和通信开销,严重限制了在资源受限边缘设备上的部署。
针对这些挑战,来自哈马德·本·哈利法大学的研究团队在《IEEE Transactions on Machine Learning in Communications and Networking》上发表了创新性研究。他们发现现有压缩方法如剪枝和稀疏化会降低自注意力层(SAL)的敏感性,而标准联邦平均(FedAvg)则会削弱模型个性化能力。为此,研究团队提出了名为PFL-TPP的双策略框架,巧妙地将自适应剪枝与超网络驱动的个性化机制相结合。
该研究的核心技术方法包括:采用动态可学习阈值对前馈层(FFL)进行结构化剪枝,显著减少冗余计算;设计服务器端超网络根据客户端特定嵌入生成个性化自注意力参数,避免直接传输大量参数;建立包含计算时间、通信延迟和能量消耗的优化模型,在CIFAR-100和Tiny-ImageNet数据集上验证框架有效性。
研究结果显示,PFL-TPP在保持模型精度的同时实现了显著的效率提升。在CIFAR-100数据集上,该框架快速收敛至95%的准确率,明显优于同时剪枝FFL和SAL的基线方法(准确率仅29%)和标准FedAvg方法(准确率33%)。在Tiny-ImageNet数据集上的进一步验证表明,即使面对更复杂的图像分类任务,PFL-TPP仍能保持稳定的收敛性和优异的性能表现。
训练效率方面,PFL-TPP展现出显著优势。与传统FedTP方法相比,在CIFAR-100上减少86.51%的累积训练时间,在Tiny-ImageNet上减少77.73%的训练时间。这种效率提升主要归功于仅传输剪枝阈值和紧凑的SAL更新策略,而非完整的模型参数,极大降低了通信开销。
能耗分析结果更加令人印象深刻。与上传全部模型参数的基线方法相比,PFL-TPP在CIFAR-100上实现98.74%的能耗降低,在Tiny-ImageNet上实现97.96%的能耗降低。即使与只传输完整FFL参数的FedTP方法相比,能耗降低也分别达到82.73%和69.94%,充分证明了该框架在资源受限环境下的实用价值。
该研究的创新性在于成功解决了Transformer模型在个性化联邦学习中的核心矛盾:既要保持模型个性化能力,又要控制资源消耗。通过非对称设计——对FFL进行剪枝和聚合,同时对SAL进行个性化处理——实现了精度与效率的最佳平衡。收敛性分析表明,在合理的平滑性和有界方差假设下,该框架能够保证优化目标的非递增性并收敛到稳定点。
这项研究的重要意义在于为无线边缘智能部署提供了切实可行的技术路径。随着边缘设备数量的爆炸式增长和对隐私保护需求的日益增强,PFL-TPP框架展示了一种既能充分利用Transformer模型强大表征能力,又能适应资源约束的协同学习范式。该工作不仅推动了个性化联邦学习在实用化方向的发展,也为未来6G网络中分布式人工智能应用奠定了重要技术基础。
研究人员在讨论部分指出,虽然当前工作主要针对视觉Transformer(ViT)模型,但提出的框架可扩展至大型语言模型(LLM)等更复杂架构。未来研究方向包括探索动态无线环境下的自适应调度机制,以及进一步优化超网络结构以支持更大规模的客户端部署。这些拓展将有助于推动个性化联邦学习在更广泛物联网场景中的应用,实现真正意义上的普惠边缘智能。
生物通微信公众号
生物通新浪微博
今日动态 |
人才市场 |
新技术专栏 |
中国科学人 |
云展台 |
BioHot |
云讲堂直播 |
会展中心 |
特价专栏 |
技术快讯 |
免费试用
版权所有 生物通
Copyright© eBiotrade.com, All Rights Reserved
联系信箱:
粤ICP备09063491号