题目: Learning@home: Crowdsourced Training of Large Neural Networks with Decentralized Mixture-of-Experts

摘要:

最近在深度学习方面的许多突破都是通过在海量数据集上训练越来越大的模型实现的。然而,训练这样的模型可能会非常昂贵。例如,威震天在一个价值2500万美元的GPU集群上训练了83亿参数的语言模型。因此,大多数研究人员无法负担训练最先进模型的费用并为其发展作出贡献。假设,研究人员可以用志愿者提供的数千台常规PC来众包大型神经网络的训练。1万台价值2500美元的台式机的原始计算能力使价值2500万美元的服务器pod相形见绌,但是使用传统的分布式训练方法无法有效地利用这种能力。在这项工作中,我们提出了Learning@home:一种神经网络训练范式,用于处理数百万连接不良的参与者。我们分析了该范例的性能、可靠性和架构约束,并将其与现有的分布式培训技术进行了比较。

成为VIP会员查看完整内容
9

相关内容

数据集,又称为资料集、数据集合或资料集合,是一种由数据所组成的集合。
Data set(或dataset)是一个数据的集合,通常以表格形式出现。每一列代表一个特定变量。每一行都对应于某一成员的数据集的问题。它列出的价值观为每一个变量,如身高和体重的一个物体或价值的随机数。每个数值被称为数据资料。对应于行数,该数据集的数据可能包括一个或多个成员。
深度神经网络模型压缩与加速综述
专知会员服务
128+阅读 · 2019年10月12日
ICLR 2019论文解读:量化神经网络
机器之心
9+阅读 · 2019年6月13日
已删除
将门创投
6+阅读 · 2019年6月10日
谷歌 MorphNet:让你的神经网络更小但更快
机器学习算法与Python学习
5+阅读 · 2019年4月18日
小样本学习(Few-shot Learning)综述
机器之心
18+阅读 · 2019年4月1日
学界 | 综述论文:四大类深度迁移学习
机器之心
16+阅读 · 2018年9月15日
Learning by Abstraction: The Neural State Machine
Arxiv
6+阅读 · 2019年7月11日
Few Shot Learning with Simplex
Arxiv
5+阅读 · 2018年7月27日
Arxiv
8+阅读 · 2018年5月15日
Arxiv
5+阅读 · 2018年4月22日
VIP会员
相关VIP内容
深度神经网络模型压缩与加速综述
专知会员服务
128+阅读 · 2019年10月12日
相关资讯
微信扫码咨询专知VIP会员