像GPT和LLaMA这样的大型语言模型(LLM)以其复杂的能力正在革新AI行业。训练这些模型需要庞大的GPU集群和大量的计算时间,在可扩展性、效率和可靠性方面带来了重大挑战。本综述探讨了LLM训练系统的最新进展,包括在训练基础设施中使用AI加速器、网络、存储和调度的创新。此外,综述还涵盖了并行策略以及在分布式LLM训练中针对计算、通信和内存的优化。它还包括在长时间训练期间保持系统可靠性的方法。通过审视当前的创新和未来的方向,本综述旨在为改进LLM训练系统和应对持续的挑战提供宝贵的见解。此外,基于传统数字电路的计算系统在满足LLM的计算需求方面面临重大限制,突显出诸如光学计算和光网络等创新解决方案的必要性。

大型语言模型(LLM)正在变革AI行业,在个人助手[1]、代码辅助[2]、芯片设计[3]和科学发现[4]等广泛任务和应用中展示了卓越的能力。这场革命的成功建立在以GPT[5]、LLaMA[6]、Gemini[7]等为代表的前所未有规模的基于变压器的LLM之上。此外,证据表明LLM的规模化尚未达到瓶颈[8]。这种趋势显著改变了基础训练系统和基础设施的设计,因为LLM通常遵循相对固定的架构,其训练独占了庞大的GPU集群长达数月。例如,LLaMA-3的预训练在Meta的生产集群上使用16K H100-80GB GPU耗时约54天[9]。

LLM训练在可扩展性、效率和可靠性(“SER”)方面对当今的训练系统和基础设施提出了重大挑战。可扩展性要求基础设施和系统能够无缝适应成千上万的GPU或AI加速器的大型集群,同时保持训练正确性和模型精度。这需要在硬件配置、网络和训练框架方面的创新解决方案。效率关注于最大化整个集群的资源利用率,通常以模型浮点运算(MFU)来衡量。实现高MFU涉及优化计算、最小化通信开销以及在前所未有的规模上高效管理内存。可靠性对于LLM训练至关重要,通常训练持续数周到数月。系统必须保持一致的性能,并对各种类型的故障具有弹性,包括硬件故障、网络问题和软件错误。它应能快速检测并从这些故障中恢复,而不会显著丧失进度或训练质量。这些相互关联的挑战需要系统和基础设施设计的整体方法,推动大规模分布式计算的边界,并为高性能机器学习系统的研究和创新开辟新途径。

本综述论文旨在全面概述LLM训练系统和基础设施的进展,解决上述挑战。本综述从分布式训练基础设施到训练系统,涵盖了GPU集群、高性能网络和为LLM工作负载量身定制的分布式存储系统的创新方法。我们还探讨了分布式训练系统的关键方面,包括提高可扩展性和效率的并行策略、计算、通信和内存优化。我们深入研究了提高训练可靠性的容错机制。通过综合最近的进展并确定未来的研究方向,本综述旨在为研究人员和实践者提供对改进LLM训练系统最有前景途径的见解。我们的目标是提供一个有价值的资源,不仅解决当前的挑战,还为大规模机器学习基础设施的未来创新铺平道路。

组织结构。图1展示了本综述的组织结构。第2节讨论LLM架构、LLM训练的特点和挑战的背景信息。在第3节中,我们总结了训练基础设施的关键方面,包括AI加速器、网络基础设施和存储系统。在第4节中,我们研究了分布式LLM训练的并行方案。在第5节中,我们讨论了利用前所未有的计算能力的计算优化。在第6节中,我们讨论了LLM训练中优化内存占用的技术。在第7节中,我们介绍了最小化通信开销的通信优化。在第8节中,我们首先进行故障分析,然后介绍快速故障检测和恢复的方法。最后,我们在第9节总结了本综述。

成为VIP会员查看完整内容
24

相关内容

大型语言模型遇上自然语言处理:综述
专知会员服务
33+阅读 · 5月23日
大型语言模型自动程序修复的系统文献综述
专知会员服务
39+阅读 · 5月5日
《大型语言模型自然语言生成评估》综述
专知会员服务
65+阅读 · 1月20日
大型语言模型在软件工程:调查与待解决的问题
专知会员服务
72+阅读 · 2023年10月6日
KnowledGPT:基于知识库的检索和存储访问增强大型语言模型
【干货书】机器学习导论第四版,903页pdf
专知
22+阅读 · 2022年11月26日
基于模型的强化学习综述
专知
26+阅读 · 2022年7月13日
初学者的 Keras:实现卷积神经网络
Python程序员
24+阅读 · 2019年9月8日
自然语言处理中的语言模型预训练方法
PaperWeekly
14+阅读 · 2018年10月21日
实战 | 基于深度学习模型VGG的图像识别(附代码)
七月在线实验室
12+阅读 · 2018年3月30日
国家自然科学基金
22+阅读 · 2015年12月31日
国家自然科学基金
20+阅读 · 2015年12月31日
国家自然科学基金
8+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
35+阅读 · 2015年12月31日
国家自然科学基金
9+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
3+阅读 · 2014年12月31日
Arxiv
148+阅读 · 2023年4月20日
A Survey of Large Language Models
Arxiv
375+阅读 · 2023年3月31日
Arxiv
63+阅读 · 2023年3月26日
Arxiv
133+阅读 · 2023年3月24日
Arxiv
19+阅读 · 2023年3月17日
VIP会员
相关资讯
相关基金
国家自然科学基金
22+阅读 · 2015年12月31日
国家自然科学基金
20+阅读 · 2015年12月31日
国家自然科学基金
8+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
35+阅读 · 2015年12月31日
国家自然科学基金
9+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
3+阅读 · 2014年12月31日
微信扫码咨询专知VIP会员