研究背景: 图神经网络(Graph Neural Networks,GNNs)在建模图数据方面具有优越性,而联邦学习(Federated Learning)使得客户端能够在分布式环境中训练强大的GNN模型,而无需共享私有数据。然而,在联邦系统中存在一个核心挑战,即非独立同分布(Non-IID)问题,这个问题在现实世界的图数据中也普遍存在。 在图神经网络中,基于结...
【联邦学习论文】ShapleyFL: Robust Federated Learning Based on Shapley Value Cherubin无关风月 中国科学技术大学 信息与通信工程硕士在读 13 人赞同了该文章 沙普利值Shapley Value(SV)是一个衡量每个玩家在合作博弈论中的贡献的概念。它已被证明是满足贡献分配的四个期望属性的唯一方法:平衡性、对称性(如...
数据集的这些显著特征(即Non-IID、分布式和不平衡的训练数据)将联邦ML框架与其他相关方法区分开来,下文将对此进行讨论。 分布式学习(Distributed Learning) 该方案中,聚合器收集设备本地训练的模型,以提供对所研究参数的整体和更准确的估计,但设备本地并不需要通过聚合器的任何反馈来获取全局模型。 并行学习(Parallel L...
论文信息 论文标题:Federated Learning from Pre-Trained Models: A Contrastive Learning Approach论文作者:Yue Tan, Guodong Long, Jie Ma, Lu Liu, Tianyi Zhou, Jing Jia
Federated Learning是一种分布式机器学习,提供规模和隐私方面的优势。本篇论文提出一种框架,通过每个用户的域适应来增强协作模型。这个模型当有差分隐私限定的时候,对FL模型改进的效果非常明显。 本论文考虑的是个人数据来自不同域的设定,因为通常每个用户的数据集有一个与别的用户数据集不同的产生过程。论文的Section ...
首先先下载原论文一睹为快吧。 Robust and Communication-Efficient Collaborative Learning 作者:Qiang Yang,Yang Liu,Tianjian Chen 等 DOI:https://doi.org/10.1145/3298981 摘要 如今AI依然面临两个主要挑战。一是在大多数行业中,存在数据孤岛问题。另一个是加强数据隐私性和安全性。我们...
联邦学习——论文研究(FedBoost: Communication-Efficient Algorithms for Federated Learning),主要内容:不同于梯度压缩和模型压缩,FedBoost集成学习算法,能够降低服务器到客户端和客户端到服务器的通信成本,提高通信效率。集成学习:集成学习(ensemblelearning)原
24 University of Washington, 25 University of Wisconsin–MadisonAbstractFederated learning (FL) is a machine learning setting where many clients (e.g. mobile devices orwholeorganizations)collaborativelytrainamodelundertheorchestrationofacentralserver(e.g. serviceprovider), while keeping the training data ...
当以“federated personal”为关键词,在 dblp 上进行文献检索的时候,会发现个性化联邦学习(PFL, Personalized Federated Learning)的研究在2021年的有明显增加。 经小鱼的查询,至22年4月16日针对个性化联邦学习的综述文章仅两篇[1][2],其中...
论文标题:How to Backdoor Federated Learning 作者:Eugene Bagdasaryan, Andreas Veit, Yiqing Hua, Deborah Estrin, Vitaly Shmatikov 摘要 本文表明联邦学习易受某种 model-poisoning 攻击,这个攻击比只在训练集上的 poisoning 攻击更厉害。单个或多个恶意的参与者可以使用本文提出的 model replacement 在联合模型上注...