We consider the distributed optimization problem where $n$ agents each possessing a local cost function, collaboratively minimize the average of the $n$ cost functions over a connected network. Assuming stochastic gradient information is available, we study a distributed stochastic gradient algorithm, called exact diffusion with adaptive stepsizes (EDAS) adapted from the Exact Diffusion method and NIDS and perform a non-asymptotic convergence analysis. We not only show that EDAS asymptotically achieves the same network independent convergence rate as centralized stochastic gradient descent (SGD) for minimizing strongly convex and smooth objective functions, but also characterize the transient time needed for the algorithm to approach the asymptotic convergence rate, which behaves as $K_T=\mathcal{O}\left(\frac{n}{1-\lambda_2}\right)$, where $1-\lambda_2$ stands for the spectral gap of the mixing matrix. To the best of our knowledge, EDAS achieves the shortest transient time when the average of the $n$ cost functions is strongly convex and each cost function is smooth. Numerical simulations further corroborate and strengthen the obtained theoretical results.


翻译:我们考虑了分配优化问题,即每个拥有本地成本功能的代理商均拥有当地成本功能,合作将连接网络的成本功能的平均值降至最低。假设存在随机梯度信息,我们研究分布式随机梯度算法,称为根据Exact Difulation 方法和NIDS改编的适应性阶梯(EDAS)精确扩散,并进行非同步趋同分析。我们不仅显示EDAS以简单的方式实现了与集中式随机梯度下降(SGD)相同的网络独立趋同率,以最大限度地减少强电流和平稳客观功能,而且还说明算法接近无干扰趋同率所需的短暂时间,算法表现为$K_T ⁇ mathcal{O ⁇ left(frac{n{%1-\lambda_2 ⁇ right)$,其中$1-lambda_2美元代表混合矩阵的光谱差距。我们所了解的最佳情况是,当平均的美元模拟成本和每个功能都大大增强时,EDPAS达到最短的瞬间时间。

0
下载
关闭预览

相关内容

在数学优化,统计学,计量经济学,决策理论,机器学习和计算神经科学中,代价函数,又叫损失函数或成本函数,它是将一个或多个变量的事件阈值映射到直观地表示与该事件。 一个优化问题试图最小化损失函数。 目标函数是损失函数或其负值,在这种情况下它将被最大化。
因果图,Causal Graphs,52页ppt
专知会员服务
246+阅读 · 2020年4月19日
图机器学习 2.2-2.4 Properties of Networks, Random Graph
图与推荐
10+阅读 · 2020年3月28日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
17+阅读 · 2018年12月24日
已删除
将门创投
5+阅读 · 2017年11月20日
Arxiv
7+阅读 · 2020年6月29日
VIP会员
相关资讯
图机器学习 2.2-2.4 Properties of Networks, Random Graph
图与推荐
10+阅读 · 2020年3月28日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
17+阅读 · 2018年12月24日
已删除
将门创投
5+阅读 · 2017年11月20日
Top
微信扫码咨询专知VIP会员