随着机器学习模型和数据量的增大,大规模分布式训练决定了模型部署的效率。去中心化,作为一种经典的分布式系统设计原型,近年来在扩展机器学习规模上显示出良好的效率和鲁棒性。本文基于此背景,探究了不同去中心化系统下训练复杂度的理论极限;并进一步提出了两种算法,其复杂度可以达到该理论极限。 论文链接:

http://proceedings.mlr.press/v139/lu21a/lu21a.pdf

成为VIP会员查看完整内容
21

相关内容

专知会员服务
23+阅读 · 2021年9月25日
专知会员服务
18+阅读 · 2021年9月4日
专知会员服务
21+阅读 · 2021年7月31日
专知会员服务
14+阅读 · 2021年7月21日
专知会员服务
36+阅读 · 2021年7月17日
专知会员服务
19+阅读 · 2021年5月30日
专知会员服务
81+阅读 · 2021年5月10日
专知会员服务
47+阅读 · 2021年2月2日
【ICML2021】低秩Sinkhorn 分解
专知
9+阅读 · 2021年8月20日
社区分享 | 从零开始学习 TinyML(三)
TensorFlow
8+阅读 · 2020年7月10日
标贝科技:TensorFlow 框架提升语音合成效果
谷歌开发者
6+阅读 · 2019年4月29日
Perseus(擎天):统一深度学习分布式通信框架
云栖社区
4+阅读 · 2019年3月10日
FAIR&MIT提出知识蒸馏新方法:数据集蒸馏
机器之心
3+阅读 · 2019年2月7日
论文结果难复现?本文教你完美实现深度强化学习算法DQN
中国人工智能学会
5+阅读 · 2017年11月24日
Arxiv
0+阅读 · 2021年11月16日
Dynamic Differential-Privacy Preserving SGD
Arxiv
0+阅读 · 2021年11月15日
Arxiv
0+阅读 · 2021年11月15日
Arxiv
3+阅读 · 2020年2月12日
Meta-Learning with Implicit Gradients
Arxiv
13+阅读 · 2019年9月10日
VIP会员
相关VIP内容
专知会员服务
23+阅读 · 2021年9月25日
专知会员服务
18+阅读 · 2021年9月4日
专知会员服务
21+阅读 · 2021年7月31日
专知会员服务
14+阅读 · 2021年7月21日
专知会员服务
36+阅读 · 2021年7月17日
专知会员服务
19+阅读 · 2021年5月30日
专知会员服务
81+阅读 · 2021年5月10日
专知会员服务
47+阅读 · 2021年2月2日
相关资讯
【ICML2021】低秩Sinkhorn 分解
专知
9+阅读 · 2021年8月20日
社区分享 | 从零开始学习 TinyML(三)
TensorFlow
8+阅读 · 2020年7月10日
标贝科技:TensorFlow 框架提升语音合成效果
谷歌开发者
6+阅读 · 2019年4月29日
Perseus(擎天):统一深度学习分布式通信框架
云栖社区
4+阅读 · 2019年3月10日
FAIR&MIT提出知识蒸馏新方法:数据集蒸馏
机器之心
3+阅读 · 2019年2月7日
论文结果难复现?本文教你完美实现深度强化学习算法DQN
中国人工智能学会
5+阅读 · 2017年11月24日
微信扫码咨询专知VIP会员