Federated Learning (FL) is a decentralized machine learning protocol that allows a set of participating agents to collaboratively train a model without sharing their data. This makes FL particularly suitable for settings where data privacy is desired. However, it has been observed that the performance of FL is closely tied with the local data distributions of agents. Particularly, in settings where local data distributions vastly differ among agents, FL performs rather poorly with respect to the centralized training. To address this problem, we hypothesize the reasons behind the performance degradation, and develop some techniques to address these reasons accordingly. In this work, we identify four simple techniques that can improve the performance of trained models without incurring any additional communication overhead to FL, but rather, some light computation overhead either on the client, or the server-side. In our experimental analysis, combination of our techniques improved the validation accuracy of a model trained via FL by more than 12% with respect to our baseline. This is about 5% less than the accuracy of the model trained on centralized data.


翻译:联邦学习组织(FL)是一个分散式的机器学习协议,它使一组参与机构能够在不分享数据的情况下合作培训模型,从而使FL特别适合需要数据隐私的环境。然而,据观察,FL的性能与当地代理机构的数据分布密切相关。特别是在当地代理机构的数据分布差异很大的情况下,FL在集中化培训方面表现很差。为了解决这一问题,我们假设性能退化背后的原因,并开发一些技术来相应解决这些问题。在这项工作中,我们确定了四种简单技术,可以改进经过培训的模型的性能,而不会给FL带来额外的通信间接费用,而是在客户或服务器方面进行一些轻量计算。在我们实验分析中,我们的技术结合使通过FL培训的模型在基线方面提高了12%以上。这比在集中化数据方面受过培训的模型的准确率低约5%。

0
下载
关闭预览

相关内容

最新《联邦学习Federated Learning》报告,Federated Learning
专知会员服务
89+阅读 · 2020年12月2日
《DeepGCNs: Making GCNs Go as Deep as CNNs》
专知会员服务
31+阅读 · 2019年10月17日
强化学习最新教程,17页pdf
专知会员服务
181+阅读 · 2019年10月11日
[综述]深度学习下的场景文本检测与识别
专知会员服务
78+阅读 · 2019年10月10日
【论文笔记】通俗理解少样本文本分类 (Few-Shot Text Classification) (1)
深度学习自然语言处理
7+阅读 · 2020年4月8日
Hierarchically Structured Meta-learning
CreateAMind
27+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
29+阅读 · 2019年5月18日
Call for Participation: Shared Tasks in NLPCC 2019
中国计算机学会
5+阅读 · 2019年3月22日
强化学习的Unsupervised Meta-Learning
CreateAMind
18+阅读 · 2019年1月7日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
Hierarchical Imitation - Reinforcement Learning
CreateAMind
19+阅读 · 2018年5月25日
Arxiv
0+阅读 · 2021年2月26日
Arxiv
1+阅读 · 2021年2月25日
Federated Learning for Physical Layer Design
Arxiv
0+阅读 · 2021年2月23日
Advances and Open Problems in Federated Learning
Arxiv
18+阅读 · 2019年12月10日
One-Shot Federated Learning
Arxiv
9+阅读 · 2019年3月5日
VIP会员
相关论文
Arxiv
0+阅读 · 2021年2月26日
Arxiv
1+阅读 · 2021年2月25日
Federated Learning for Physical Layer Design
Arxiv
0+阅读 · 2021年2月23日
Advances and Open Problems in Federated Learning
Arxiv
18+阅读 · 2019年12月10日
One-Shot Federated Learning
Arxiv
9+阅读 · 2019年3月5日
Top
微信扫码咨询专知VIP会员