Algorithms have been estimated to increase AI training FLOP efficiency by a factor of 22,000 between 2012 and 2023 [Ho et al., 2024]. Running small-scale ablation experiments on key innovations from this time period, we are able to account for less than 10x of these gains. Surveying the broader literature, we estimate that additional innovations not included in our ablations account for less than 10x, yielding a total under 100x. This leads us to conduct scaling experiments, which reveal that much of this efficiency gap can be explained by algorithms with scale-dependent efficiency improvements. In particular, we conduct scaling experiments between LSTMs and Transformers, finding exponent differences in their compute-optimal scaling law while finding little scaling difference for many other innovations. These experiments demonstrate that - contrary to standard assumptions - an algorithm's efficiency gains are tied to compute scale. Using experimental extrapolation and literature estimates, we account for 6,930x efficiency gains over the same time period, with the scale-dependent LSTM-to-Transformer transition accounting for the majority of gains. Our results indicate that algorithmic progress for small models has been far slower than previously assumed, and that measures of algorithmic efficiency are strongly reference-dependent.


翻译:据估计,在2012年至2023年间,算法将人工智能训练的FLOP效率提升了22,000倍[Ho等人,2024]。通过对这一时期的关键创新进行小规模消融实验,我们仅能解释其中不到10倍的增益。通过综述更广泛的文献,我们估计未包含在我们消融实验中的额外创新贡献了不到10倍的增益,总计不足100倍。这促使我们开展扩展实验,结果表明这一效率差距在很大程度上可由具有规模依赖效率提升的算法来解释。具体而言,我们在LSTM与Transformer之间进行了扩展实验,发现它们在计算最优扩展定律中的指数存在差异,而许多其他创新则显示出极小的扩展差异。这些实验证明——与标准假设相反——算法的效率增益与计算规模密切相关。通过实验外推和文献估计,我们解释了同期内6,930倍的效率提升,其中规模依赖的LSTM到Transformer转变贡献了主要部分。我们的研究结果表明,小规模模型的算法进步速度远低于先前的假设,且算法效率的度量具有强烈的参考依赖性。

0
下载
关闭预览

相关内容

在数学和计算机科学之中,算法(Algorithm)为一个计算的具体步骤,常用于计算、数据处理和自动推理。精确而言,算法是一个表示为有限长列表的有效方法。算法应包含清晰定义的指令用于计算函数。 来自维基百科: 算法
论文浅尝 | GEOM-GCN: Geometric Graph Convolutional Networks
开放知识图谱
14+阅读 · 2020年4月8日
国家自然科学基金
13+阅读 · 2017年12月31日
国家自然科学基金
17+阅读 · 2017年12月31日
国家自然科学基金
46+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
6+阅读 · 2014年12月31日
VIP会员
相关基金
国家自然科学基金
13+阅读 · 2017年12月31日
国家自然科学基金
17+阅读 · 2017年12月31日
国家自然科学基金
46+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
6+阅读 · 2014年12月31日
Top
微信扫码咨询专知VIP会员