Non-Independent and Identically Distributed (non- IID) data distribution among clients is considered as the key factor that degrades the performance of federated learning (FL). Several approaches to handle non-IID data such as personalized FL and federated multi-task learning (FMTL) are of great interest to research communities. In this work, first, we formulate the FMTL problem using Laplacian regularization to explicitly leverage the relationships among the models of clients for multi-task learning. Then, we introduce a new view of the FMTL problem, which in the first time shows that the formulated FMTL problem can be used for conventional FL and personalized FL. We also propose two algorithms FedU and dFedU to solve the formulated FMTL problem in communication-centralized and decentralized schemes, respectively. Theoretically, we prove that the convergence rates of both algorithms achieve linear speedup for strongly convex and sublinear speedup of order 1/2 for nonconvex objectives. Experimentally, we show that our algorithms outperform the conventional algorithm FedAvg in FL settings, MOCHA in FMTL settings, as well as pFedMe and Per-FedAvg in personalized FL settings.


翻译:在这项工作中,首先,我们利用拉普拉西亚规范化制定FMTL问题,以明确利用客户模式之间的关系进行多任务学习。然后,我们引入了FMTL问题的新观点,首次显示FMTL问题可用于传统的FL和个性化FL。 我们还提出了两种算法,分别用于解决通信集中化和分散化计划中的FMTL问题。理论上,我们证明两种算法的趋同率在非 Convx 目标的高度对等和亚线性速度中达到了线性加速率。我们实验表明,在FMTAvg个人设置中,FMTFAvg和FFMAFL设置中,FMTFFFAv-FAVML设置中常规算法优于FMTAv-FML设置中FMFAv-FMAFAFAFAFAFML设置中,MSU 理论上地证明,在FMFFAFAFAFAFADL设置中,在FML设置中,在FFFFFFFFAFFFADL设置、ML设置中,在FMADFFFAFFFFFFFDML设置中,我们证明和MAFFFFFAFAFAFFFFAFAFAFA和ML设置中,在FAFAFAFA的精化的缩缩缩缩化中,我们。

0
下载
关闭预览

相关内容

最新《联邦学习Federated Learning》报告,Federated Learning
专知会员服务
86+阅读 · 2020年12月2日
【斯坦福】凸优化圣经- Convex Optimization (附730pdf下载)
专知会员服务
211+阅读 · 2020年6月5日
《DeepGCNs: Making GCNs Go as Deep as CNNs》
专知会员服务
30+阅读 · 2019年10月17日
【新书】Python编程基础,669页pdf
专知会员服务
186+阅读 · 2019年10月10日
Federated Learning: 架构
AINLP
4+阅读 · 2020年9月20日
Multi-Task Learning的几篇综述文章
深度学习自然语言处理
15+阅读 · 2020年6月15日
Hierarchically Structured Meta-learning
CreateAMind
23+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
25+阅读 · 2019年5月18日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
Unsupervised Learning via Meta-Learning
CreateAMind
41+阅读 · 2019年1月3日
Disentangled的假设的探讨
CreateAMind
9+阅读 · 2018年12月10日
Representation Learning on Network 网络表示学习
全球人工智能
10+阅读 · 2017年10月19日
【学习】Hierarchical Softmax
机器学习研究会
4+阅读 · 2017年8月6日
Arxiv
0+阅读 · 2022年2月22日
Arxiv
10+阅读 · 2021年3月30日
Optimization for deep learning: theory and algorithms
Arxiv
102+阅读 · 2019年12月19日
Advances and Open Problems in Federated Learning
Arxiv
17+阅读 · 2019年12月10日
One-Shot Federated Learning
Arxiv
9+阅读 · 2019年3月5日
Arxiv
4+阅读 · 2018年9月11日
Arxiv
5+阅读 · 2017年7月25日
VIP会员
相关资讯
Federated Learning: 架构
AINLP
4+阅读 · 2020年9月20日
Multi-Task Learning的几篇综述文章
深度学习自然语言处理
15+阅读 · 2020年6月15日
Hierarchically Structured Meta-learning
CreateAMind
23+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
25+阅读 · 2019年5月18日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
Unsupervised Learning via Meta-Learning
CreateAMind
41+阅读 · 2019年1月3日
Disentangled的假设的探讨
CreateAMind
9+阅读 · 2018年12月10日
Representation Learning on Network 网络表示学习
全球人工智能
10+阅读 · 2017年10月19日
【学习】Hierarchical Softmax
机器学习研究会
4+阅读 · 2017年8月6日
相关论文
Arxiv
0+阅读 · 2022年2月22日
Arxiv
10+阅读 · 2021年3月30日
Optimization for deep learning: theory and algorithms
Arxiv
102+阅读 · 2019年12月19日
Advances and Open Problems in Federated Learning
Arxiv
17+阅读 · 2019年12月10日
One-Shot Federated Learning
Arxiv
9+阅读 · 2019年3月5日
Arxiv
4+阅读 · 2018年9月11日
Arxiv
5+阅读 · 2017年7月25日
Top
微信扫码咨询专知VIP会员