
-
生物通官微
陪你抓住生命科技
跳动的脉搏
通过临时本地模型加速联邦遗忘(Federated Unlearning)过程
《IEEE Transactions on Sustainable Computing》:Speed up Federated Unlearning With Temporary Local Models
【字体: 大 中 小 】 时间:2025年11月21日 来源:IEEE Transactions on Sustainable Computing 3.9
编辑推荐:
联邦未学习(FUL)新方法FedCF解决多客户端并行数据删除问题,提升效率8.3-4.1倍并保持模型性能,通过临时模型重构实现快速安全去学。
联邦学习(FL)的去中心化方法使客户端能够利用经过充分训练的聚合机器学习(ML)模型的优势,同时保持对其数据集的控制[1]。另一方面,联邦去学习(FUL)是对FL范式的扩展,它包括在FL框架下从参与者的ML模型中移除特定数据实例或模式,以支持客户“被遗忘”的权利[2],这符合加州消费者隐私法(CCPA)[3]和欧盟通用数据保护条例(GDPR)[4]的规定。这意味着参与者有权要求移除自己的数据贡献。除了“被遗忘的权利”之外,从训练模型中移除数据贡献在特定训练数据变得无关紧要时也有益处。这种情况很常见,主要是由于分布式学习方法以及客户端实体之间的数据分布差异。在FL中的客户端服务质量领域,有时特定训练数据会因数据投毒攻击[5]、[6]而受损或被篡改,或者随着时间的推移变得过时,或者在训练后被发现存在错误。完全删除低质量数据及其相关历史记录的能力显著提升了FL系统的服务质量,如安全性、响应性和可靠性。
生物通微信公众号
知名企业招聘