在这篇工作中,我们重点是在优化Non-IID、Unbalanced属性,以及通信约束这个关键本质。部署的联邦优化系统还必须解决无数实际问题:随着数据的增加和删减,客户端数据集也在变化;客户端可用性以复杂的方式与本地数据分布相关(如:来自美式英语使用者的电话会比来自英式英语使用者的电话更可能在不同时间插电(充电等));客户...
来自:Google在AISTATS 2017上发表的论文《Communication-Efficient Learning of Deep Networks from Decentralized Data》中,首次提出了FedAvg算法。在近期的阅读和简译中,我们深入探讨了论文的细节。个人理解可能存在错误,欢迎指正。论文的摘要指出,现代移动设备接触大量数据,可以显著提升用户体验。然而,这些...
首先检查你的数据划分是否non-iid,即每个客户端的数据分布差别有多大。如果是随机平均分到多个客户端,...
This is a implemention of FedAvg in paper Communication-Efficient Learning of Deep Networks from Decentralized Data. - zj-jayzhang/FedAvg
【目的】在隐私保护日益严峻的环境下,联邦学习常被用于解决"数据孤岛"与"数据隐私"等问题,但传统的联邦学习架构受限于中心化特点,带来了额外的隐私风险与成本,基于区... 赵鑫博代闯闯陆忠华 - 《数据与计算发展前沿》 被引量: 0发表: 2022年 面向数据异构场景的联邦学习算法研究 传统的集中式机器学习将用户数据...
Personalized Federated Learning with Theoretical Guarantees: A Model-Agnostic Meta-Learning Approach论文链接:https://proceedings.neurips.cc/paper/2020/file/24389bfe4fe2eba8bf9aa9203a44cdad-Paper.pdf ▊介绍与引言 传统联邦学习弊端:只为所有用户开发一个公共模型,因此,它不会将模型适应于每个用户,这是一个...
NeurIPS 2019 Workshop on Federated Learning (distinguished student paper award). (*equal contribution) If you find this repository useful, please cite our paper: @article{liang2020think, title={Think locally, act globally: Federated learning with local and global representations}, author={Liang, Pa...
variant proposals focusing on the communication rounds reduction and data compression were proposed to decrease the communication overhead of FL. In this paper, we propose Overlap-FedAvg, an innovative framework that loosed the chain-like constraint of federated learning and paralleled the model trainin...
EMFedAvg——基于EMD距离的联邦平均算法一.引言联邦学习作为新兴的机器学习范式,其提供了一种分布式机器学习的方式。在联邦学习中,数据隐私是必须要保证的,但是传统的机器学习算法在处理隐私时存在不足。因此,联邦学习中的隐私保护机制成为众多研究者关注的焦点,其中联邦平均算法是一种主流的隐私保护方法。而基于EMD距离的...
元学习是当下比较热门的一个研究方向,本篇文章将联邦学习和一种模型不可知元学习方法MAML结合起来,提出了一种新的个性化联邦技术Per-FedAvg。 所谓元学习,就是学会学习。利用元学习得到的模型,当我们在面临一个新的任务时,经过很少的训练步骤就可以得到一个比较好的模型,而不必像经典机器学习一样,需要在一个数据集...