This paper considers decentralized stochastic optimization over a network of $n$ nodes, where each node possesses a smooth non-convex local cost function and the goal of the networked nodes is to find an $\epsilon$-accurate first-order stationary point of the sum of the local costs. We focus on an online setting, where each node accesses its local cost only by means of a stochastic first-order oracle that returns a noisy version of the exact gradient. In this context, we propose a novel single-loop decentralized hybrid variance-reduced stochastic gradient method, called GT-HSGD, that outperforms the existing approaches in terms of both the oracle complexity and practical implementation. The GT-HSGD algorithm implements specialized local hybrid stochastic gradient estimators that are fused over the network to track the global gradient. Remarkably, GT-HSGD achieves a network topology-independent oracle complexity of $O(n^{-1}\epsilon^{-3})$ when the required error tolerance $\epsilon$ is small enough, leading to a linear speedup with respect to the centralized optimal online variance-reduced approaches that operate on a single node. Numerical experiments are provided to illustrate our main technical results.


翻译:本文考虑对一个由美元节点组成的网络进行分散式随机优化,每个节点拥有一个平滑的非混凝土本地成本功能,而网络节点的目标是找到一个单位成本和当地成本之和的一阶固定点。我们关注一个在线设置,每个节点只能通过一个随机第一阶或触角进入其本地成本,从而返回精确梯度的响亮版本。在这方面,我们提议一种新型的单一环分散式混合差异降压梯度方法,称为GT-HSGD,该方法在质谱复杂性和实际实施方面优于现有方法。GT-HSGD算法采用了专门的本地混合性梯度估计器,该方法与网络连接,以跟踪全球梯度。值得注意的是,当所需的错误容忍美元-Central-plock-lockencation 3 方法($N°=1 ⁇ -1 ⁇ -epslon}在网络上具有依赖性结构复杂性的复杂度时,当要求的错误容忍度($\/eplon=3美元)超过现有方法时, 以最优度进行最佳的线性实验时,该方法在网络上没有多少。

0
下载
关闭预览

相关内容

【干货书】机器学习速查手册,135页pdf
专知会员服务
125+阅读 · 2020年11月20日
一份简单《图神经网络》教程,28页ppt
专知会员服务
123+阅读 · 2020年8月2日
【斯坦福】凸优化圣经- Convex Optimization (附730pdf下载)
专知会员服务
220+阅读 · 2020年6月5日
Stabilizing Transformers for Reinforcement Learning
专知会员服务
58+阅读 · 2019年10月17日
AAAI2020 图相关论文集
图与推荐
10+阅读 · 2020年7月15日
LibRec 精选:AutoML for Contextual Bandits
LibRec智能推荐
7+阅读 · 2019年9月19日
写缓冲(change buffer),这次彻底懂了!!!
架构师之路
5+阅读 · 2019年6月25日
ICLR2019最佳论文出炉
专知
12+阅读 · 2019年5月6日
逆强化学习-学习人先验的动机
CreateAMind
15+阅读 · 2019年1月18日
Ray RLlib: Scalable 降龙十八掌
CreateAMind
9+阅读 · 2018年12月28日
【SIGIR2018】五篇对抗训练文章
专知
12+阅读 · 2018年7月9日
[DLdigest-8] 每日一道算法
深度学习每日摘要
4+阅读 · 2017年11月2日
大数据的分布式算法
待字闺中
3+阅读 · 2017年6月13日
Arxiv
5+阅读 · 2017年12月14日
VIP会员
相关VIP内容
相关资讯
AAAI2020 图相关论文集
图与推荐
10+阅读 · 2020年7月15日
LibRec 精选:AutoML for Contextual Bandits
LibRec智能推荐
7+阅读 · 2019年9月19日
写缓冲(change buffer),这次彻底懂了!!!
架构师之路
5+阅读 · 2019年6月25日
ICLR2019最佳论文出炉
专知
12+阅读 · 2019年5月6日
逆强化学习-学习人先验的动机
CreateAMind
15+阅读 · 2019年1月18日
Ray RLlib: Scalable 降龙十八掌
CreateAMind
9+阅读 · 2018年12月28日
【SIGIR2018】五篇对抗训练文章
专知
12+阅读 · 2018年7月9日
[DLdigest-8] 每日一道算法
深度学习每日摘要
4+阅读 · 2017年11月2日
大数据的分布式算法
待字闺中
3+阅读 · 2017年6月13日
Top
微信扫码咨询专知VIP会员