We propose ADOM - an accelerated method for smooth and strongly convex decentralized optimization over time-varying networks. ADOM uses a dual oracle, i.e., we assume access to the gradient of the Fenchel conjugate of the individual loss functions. Up to a constant factor, which depends on the network structure only, its communication complexity is the same as that of accelerated Nesterov gradient method (Nesterov, 2003). To the best of our knowledge, only the algorithm of Rogozin et al. (2019) has a convergence rate with similar properties. However, their algorithm converges under the very restrictive assumption that the number of network changes can not be greater than a tiny percentage of the number of iterations. This assumption is hard to satisfy in practice, as the network topology changes usually can not be controlled. In contrast, ADOM merely requires the network to stay connected throughout time.


翻译:我们建议ADOM(ADOM) -- -- 在一个时间变化的网络中进行平稳和强烈的分散化优化的加速方法;ADOM(ADOM)使用一种双重的预言,即,我们假定使用单个损失功能的Fenchel组合的梯度;直到一个仅取决于网络结构的恒定因素,其通信复杂性与加速Nesterov梯度法(Nesterov,2003年)相同(据我们所知,只有Rogozin等人的算法(2019年)与类似特性的趋同率。然而,它们的算法却在非常限制性的假设下汇合在一起,即网络变化的数量不能大于迭代数的很小百分比。这一假设在实践中难以满足,因为网络的地形变化通常无法控制。相比之下,ADOM(ADOM)只是要求网络保持整个时间连接。

0
下载
关闭预览

相关内容

Networking:IFIP International Conferences on Networking。 Explanation:国际网络会议。 Publisher:IFIP。 SIT: http://dblp.uni-trier.de/db/conf/networking/index.html
专知会员服务
52+阅读 · 2020年11月3日
【IJCAJ 2020】多通道神经网络 Multi-Channel Graph Neural Networks
专知会员服务
25+阅读 · 2020年7月19日
【Google】平滑对抗训练,Smooth Adversarial Training
专知会员服务
48+阅读 · 2020年7月4日
神经网络的拓扑结构,TOPOLOGY OF DEEP NEURAL NETWORKS
专知会员服务
32+阅读 · 2020年4月15日
深度强化学习策略梯度教程,53页ppt
专知会员服务
178+阅读 · 2020年2月1日
《DeepGCNs: Making GCNs Go as Deep as CNNs》
专知会员服务
30+阅读 · 2019年10月17日
最新BERT相关论文清单,BERT-related Papers
专知会员服务
52+阅读 · 2019年9月29日
已删除
将门创投
6+阅读 · 2018年12月3日
Arxiv
0+阅读 · 2021年4月13日
Arxiv
9+阅读 · 2020年10月29日
Arxiv
19+阅读 · 2020年7月13日
Arxiv
6+阅读 · 2018年4月24日
VIP会员
相关资讯
已删除
将门创投
6+阅读 · 2018年12月3日
Top
微信扫码咨询专知VIP会员