Federated averaging (FedAvg) is a communication efficient algorithm for the distributed training with an enormous number of clients. In FedAvg, clients keep their data locally for privacy protection; a central parameter server is used to communicate between clients. This central server distributes the parameters to each client and collects the updated parameters from clients. FedAvg is mostly studied in centralized fashions, which requires massive communication between server and clients in each communication. Moreover, attacking the central server can break the whole system's privacy. In this paper, we study the decentralized FedAvg with momentum (DFedAvgM), which is implemented on clients that are connected by an undirected graph. In DFedAvgM, all clients perform stochastic gradient descent with momentum and communicate with their neighbors only. To further reduce the communication cost, we also consider the quantized DFedAvgM. We prove convergence of the (quantized) DFedAvgM under trivial assumptions; the convergence rate can be improved when the loss function satisfies the P{\L} property. Finally, we numerically verify the efficacy of DFedAvgM.


翻译:平均( FedAvg) 是一种与大量客户进行分布式培训的通信高效算法。 在 FedAvg 中, 客户将数据保存在本地用于隐私保护; 中央参数服务器用于客户之间的通信。 这个中央服务器向每个客户分发参数, 并从客户收集更新参数。 FedAvg 大多以集中方式研究, 这要求服务器和客户在每次通信中进行大规模通信。 此外, 攻击中央服务器可以打破整个系统的隐私。 在本文中, 我们研究分散式的FedAvgg 与动力( DFedAvgM ), 该动力是用无方向图形连接的客户执行的。 在 DFedAvgM 中, 所有客户都以动态进行随机梯度梯度梯度下降, 并且只与邻居进行通信。 为了进一步降低通信成本, 我们还考虑在微小的假设下对DFedAvgM 进行量化的合并。 当损失功能满足 PL} 属性时, 组合率是可以改进的。 最后, 我们用数字核查DFDFAgM 的功效。

0
下载
关闭预览

相关内容

专知会员服务
30+阅读 · 2021年3月7日
专知会员服务
154+阅读 · 2021年3月6日
最新《联邦学习Federated Learning》报告,Federated Learning
专知会员服务
86+阅读 · 2020年12月2日
专知会员服务
38+阅读 · 2020年12月1日
专知会员服务
17+阅读 · 2020年9月6日
【MIT】反偏差对比学习,Debiased Contrastive Learning
专知会员服务
90+阅读 · 2020年7月4日
2019年机器学习框架回顾
专知会员服务
35+阅读 · 2019年10月11日
Hierarchically Structured Meta-learning
CreateAMind
23+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
25+阅读 · 2019年5月18日
Call for Participation: Shared Tasks in NLPCC 2019
中国计算机学会
5+阅读 · 2019年3月22日
已删除
将门创投
3+阅读 · 2018年10月11日
神经网络学习率设置
机器学习研究会
4+阅读 · 2018年3月3日
分布式TensorFlow入门指南
机器学习研究会
4+阅读 · 2017年11月28日
【学习】Hierarchical Softmax
机器学习研究会
4+阅读 · 2017年8月6日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
Arxiv
0+阅读 · 2021年6月11日
Arxiv
1+阅读 · 2021年6月11日
Arxiv
7+阅读 · 2021年4月30日
VIP会员
相关VIP内容
专知会员服务
30+阅读 · 2021年3月7日
专知会员服务
154+阅读 · 2021年3月6日
最新《联邦学习Federated Learning》报告,Federated Learning
专知会员服务
86+阅读 · 2020年12月2日
专知会员服务
38+阅读 · 2020年12月1日
专知会员服务
17+阅读 · 2020年9月6日
【MIT】反偏差对比学习,Debiased Contrastive Learning
专知会员服务
90+阅读 · 2020年7月4日
2019年机器学习框架回顾
专知会员服务
35+阅读 · 2019年10月11日
相关资讯
Hierarchically Structured Meta-learning
CreateAMind
23+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
25+阅读 · 2019年5月18日
Call for Participation: Shared Tasks in NLPCC 2019
中国计算机学会
5+阅读 · 2019年3月22日
已删除
将门创投
3+阅读 · 2018年10月11日
神经网络学习率设置
机器学习研究会
4+阅读 · 2018年3月3日
分布式TensorFlow入门指南
机器学习研究会
4+阅读 · 2017年11月28日
【学习】Hierarchical Softmax
机器学习研究会
4+阅读 · 2017年8月6日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
Top
微信扫码咨询专知VIP会员