We study the optimization aspects of personalized Federated Learning (FL). We propose general optimizers that can be used to solve essentially any existing personalized FL objective, namely a tailored variant of Local SGD and variants of accelerated coordinate descent/accelerated SVRCD. By studying a general personalized objective that is capable of recovering essentially any existing personalized FL objective as a special case, we develop a universal optimization theory applicable to all strongly convex personalized FL models in the literature. We demonstrate the practicality and/or optimality of our methods both in terms of communication and local computation. Surprisingly enough, our general optimization solvers and theory are capable of recovering best-known communication and computation guarantees for solving specific personalized FL objectives. Thus, our proposed methods can be taken as universal optimizers that make the design of task-specific optimizers unnecessary in many cases.


翻译:我们研究了个性化联邦学习(FL)的优化方面。我们建议了可用于从根本上解决任何现有个性化FL目标的一般优化因素,即当地SGD的量身定制变方和加速协调下降/加速下降 SVRCD的变方。通过研究一个能够基本上将任何现有个性化FL目标作为特例加以恢复的一般性个性化目标,我们开发了一种通用优化理论,该理论适用于文献中所有强精细的个性化FL模型。我们展示了我们方法在通信和地方计算方面的实用性和(或)最佳性。令人惊讶的是,我们的一般优化解决方案和理论能够恢复最著名的通信和计算保证,从而解决具体的个性化FL目标。因此,我们提出的方法可以被视为通用的优化因素,使得许多情况下没有必要设计特定任务优化器。

0
下载
关闭预览

相关内容

专知会员服务
10+阅读 · 2021年10月1日
最新《联邦学习Federated Learning》报告,Federated Learning
专知会员服务
89+阅读 · 2020年12月2日
迁移学习简明教程,11页ppt
专知会员服务
108+阅读 · 2020年8月4日
强化学习最新教程,17页pdf
专知会员服务
177+阅读 · 2019年10月11日
[综述]深度学习下的场景文本检测与识别
专知会员服务
78+阅读 · 2019年10月10日
深度学习的多个loss如何平衡?
极市平台
5+阅读 · 2020年3月16日
已删除
AI掘金志
7+阅读 · 2019年7月8日
Transferring Knowledge across Learning Processes
CreateAMind
28+阅读 · 2019年5月18日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
17+阅读 · 2018年12月24日
【SIGIR2018】五篇对抗训练文章
专知
12+阅读 · 2018年7月9日
推荐|深度强化学习聊天机器人(附论文)!
全球人工智能
4+阅读 · 2018年1月30日
【推荐】自然语言处理(NLP)指南
机器学习研究会
35+阅读 · 2017年11月17日
Federated Learning with Personalization Layers
Arxiv
4+阅读 · 2019年12月2日
VIP会员
相关资讯
深度学习的多个loss如何平衡?
极市平台
5+阅读 · 2020年3月16日
已删除
AI掘金志
7+阅读 · 2019年7月8日
Transferring Knowledge across Learning Processes
CreateAMind
28+阅读 · 2019年5月18日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
17+阅读 · 2018年12月24日
【SIGIR2018】五篇对抗训练文章
专知
12+阅读 · 2018年7月9日
推荐|深度强化学习聊天机器人(附论文)!
全球人工智能
4+阅读 · 2018年1月30日
【推荐】自然语言处理(NLP)指南
机器学习研究会
35+阅读 · 2017年11月17日
Top
微信扫码咨询专知VIP会员