成为VIP会员查看完整内容
VIP会员码认证
首页
主题
发现
会员
服务
注册
·
登录
0
AI大牛李沐装机视频来了!你也能练100亿的大模型
2022 年 8 月 14 日
新智元
新智元报道
编辑:
Aeneas 拉燕 桃子
【新智元导读】
AI大牛李沐带你来装机!
AI大牛沐神来装机了,还是训练100亿参数模型那种。
在还没出装机视频前,李沐老师曾发起了一个小小的问卷调查,趁着显卡降价,看下童鞋们对装机跑Transformer有多大兴趣。
当时,就连华为天才少年「稚晖君」都来点赞了,足见大家还是很期待的。
这不,沐神带着他的装机视频来了。怎样用最低的成本训练一个100亿模型?
而就在最近,币圈也在一直降温,同时GPU也明显降价了不少,就比如英伟达3090TI现在售价1600美元(原价2000美元)。
在这个项目的开始,先装了2台原型机,每台机器都是双卡RTX 3090TI,采用了水冷散热系统,减少了噪音。
一台机器装下来,造价有5000多美元,大约3万5人民币。
话不多说,来看看沐神如何装机的吧~
装机清单
装机的需求,首先就要是足够安静。
不然太吵的话没法工作。
第二个需求就是散热要好。不然温度过高的话会导致GPU降频。
第三个,重点来了,因为需要跑比较大的Transformer模型,所以GPU的带宽必须足够好。
如果之前装过GPU服务器用来跑CNN的话,跟跑Transformer模型的需求会不太一样。因为Transformer模型比CNN模型要更大,对内存的占有率会更高。所以GPU的内存大小非常重要。
之前沐神也讲过,要把这样大的Transformer模型放到多个GPU上训练,来自谷歌、微软等的工程师都是使用类似DGA X100这样的机器来跑的。即使在这样的机器上,GPU的带宽仍然是一个瓶颈。
购买这种服务器GPU和游戏GPU的区别就在于,前者不在于单卡能跑多快,而是卡与卡之间能够多快地连接出来。
因此装机理念的重点就是:尽量增大GPU内存,以及GPU之间互联的一个带宽,
如果一台机器想放很多卡的话,就要买涡轮的散热。
如果想要安静的话,就买水冷的散热,沐神买的是4块3090 TI。用水冷的好处是比较安静,坏处就是特别占地方。
所以,如果要在机箱放四块卡的话,就不要买水冷的版本,而是要买只有一个涡轮风扇的版本。
而且机箱里风的流向是一个特别重要的问题。如果买带3个风扇的卡,风是从正面进入机箱,然后从四面八方散热,卡挨得紧的话,机箱里的温度就会非常高。
沐神也说,自己在多年前,买了四块2个大风扇的卡放在一起,结果就导致一块卡温度过高烧掉了。
GPU选好以后(华硕的ROG), 剩下的配置就比较简单。CPU用的是AMD的12核CPU,主板是号称PCIE 4.0 16的某牌子,硬盘是2 TB的M.2的硬盘,风扇是120毫米水冷风扇,加一个全尺寸机箱。
装机步骤
装机清单完成后,接下来就是具体的装机过程了。步骤如下:
首先放GPU。注意,放的过程中一定不能用手碰金属的地方,如果有静电的话非常容易造成GPU导电。
把GPU放进去之后,把螺丝拧上。然后把风扇装进去。
插上电源后,把电源线和水管线绑在一起。然后把NVLink的桥给连上去。
最后连上电源,机器就可以运行了。
压力测试
在装机完成后,下一步的任务就是继续装上操作系统。
沐神装的是ubuntu22,装上之后就靠远程连上去了。
当然了,沐神也是把各种情况说的比较详细,除了ubuntu22以外,windows和linux在不同的需求下也是可以的。
这里沐神用的SSH进行的远程连接。
沐神的系统已经装上了驱动,同时,他也指出如果还没有驱动的话,也可以用apt-get装上nvidia-driver-515。
装好之后,就可以运行nvidia-smi,看到系统了。
从中可以看到各项信息。比如GPU的数量、温度、瓦数、内存使用等等。
接下来还可以通过nvidia-smi的topo-m矩阵看到nv-link是否正常。
可以看到两个GPU由NV4连接。4表示4个通道,这就代表连接是正常的。
下一题,是测试系统在满负荷的情况下的温度。
沐神表示,测试GPU的是一个叫gpu-burn的小程序,github上可以下载。
这里沐神模拟跑了十分钟,也是看到了两个GPU的温度。沐神还打趣说,都能感觉到GPU在呼呼吹热风。
同理,CPU也可以用这种办法测试温度,用的是cpu-burn。
最终两个GPU的温度停留在58度和55度,功耗拉到了440多瓦(满功耗480瓦),还挺好的。
最后的一项参数是机器的耗电情况。沐神的测试大概用了1240瓦,意味着每小时用电1.5度。
从目前的数据来看,稳定性还ok。
至于用这台机器跑Transformer性能怎么样,还得等下期视频了。
网友热评
视频发出后,b站的网友也表示出了极大的兴趣。
有满分课代表同学出没,列出了视频中提到的完整配置清单。
还有网友火速前来围观,「跟李沐学装机」。
沐神自己表示,感觉3090ti的卡不是太行。马上有网友搭腔,「不行就抽了送人吧。」
当然了,这种硬核装机视频下的评论肯定少不了幽默因素。
只能说,太真实了。
参考资料:
https://b23.tv/KIRbVC3
登录查看更多
点赞并收藏
0
暂时没有读者
0
权益说明
本文档仅做收录索引使用,若发现您的权益受到侵害,请立即联系客服(微信: zhuanzhi02,邮箱:bd@zhuanzhi.ai),我们会尽快为您处理
相关内容
GPU
关注
29
斯坦福大学首个Transformers专题讲座视频放出,NLP、CV和RL无所不包
专知会员服务
44+阅读 · 2022年7月12日
【特斯拉 AI 高级总监 Andrej Karpathy最新博客】2055年深度神经网络会怎么样?:33年前DNN和33年后DNN,Deep Neural Nets: 33 years ago and 33 years from now
专知会员服务
10+阅读 · 2022年3月14日
Swin Transformer重磅升级!Swin V2:向更大容量、更高分辨率的更大模型迈进
专知会员服务
26+阅读 · 2021年11月20日
台大李宏毅《机器学习》2021课程撒花完结!除了视频、PPT,还有人汇编了一本答疑书
专知会员服务
78+阅读 · 2021年8月9日
【LinkedIn工程总监洪亮劼】浅谈工业级推荐系统,附36页ppt与视频
专知会员服务
30+阅读 · 2020年10月6日
最新《文本深度学习模型压缩》综述论文,21页pdf
专知会员服务
25+阅读 · 2020年8月19日
Facebook AI何恺明等最新研究MoCo(动量对比学习)第二版,超越Hinton的SimCLR,刷新ImageNet准确率
专知会员服务
35+阅读 · 2020年3月11日
Google AI博客解读论文《Reformer: The Efficient Transformer》,百万量级注意力机制
专知会员服务
69+阅读 · 2020年1月17日
模型压缩究竟在做什么?我们真的需要模型压缩么?
专知会员服务
27+阅读 · 2020年1月16日
【大佬约架】Yoshua Bengio与Gary Marcus之圣诞AI论战「 AI 之道」,附视频地址与slides下载
专知会员服务
23+阅读 · 2019年12月25日
PyTorch创始人:Transformer太火很不好,AI易撞墙
机器之心
1+阅读 · 2022年10月3日
英伟达发布4090超级核弹!台积电4nm,顶配12999元起,性能暴涨4倍
新智元
0+阅读 · 2022年9月20日
苏妈官宣首款5纳米旗舰CPU!AMD终于能突破5GHz了
新智元
0+阅读 · 2022年8月30日
挑战OpenAI!以色列AI21 Labs推最新语言模型:侏罗纪-X
新智元
0+阅读 · 2022年7月26日
单机训练200亿参数大模型:Cerebras打破新纪录
机器之心
1+阅读 · 2022年6月25日
经验分享:如何在自己的创业中,用上GPT-3等AI大模型
学术头条
1+阅读 · 2022年3月5日
经验分享:如何在创业中,用上GPT-3等AI大模型
THU数据派
1+阅读 · 2022年3月2日
老黄没来!英伟达祭出GPU之王RTX 3090Ti,元宇宙平台开放
新智元
0+阅读 · 2022年1月5日
5300亿!巨型语言模型参数每年暴涨10倍,新「摩尔定律」要来了?
新智元
0+阅读 · 2021年10月27日
聊一聊“超大模型”
夕小瑶的卖萌屋
1+阅读 · 2021年7月6日
高阶微分方程的周期解及多重性
国家自然科学基金
0+阅读 · 2015年12月31日
激光加载对NEA半导体光阴极激活层的破坏机理研究
国家自然科学基金
0+阅读 · 2014年12月31日
近紫外光激发白光LED用氯氧化物稀土双掺杂敏化Mn2+红色荧光粉的发光特性和能量传递研究
国家自然科学基金
0+阅读 · 2013年12月31日
基于特征量反演的拉索损伤声发射监测理论与试验研究
国家自然科学基金
0+阅读 · 2013年12月31日
离子液体基集热纳米流体的光热转化性能调控和传热特性
国家自然科学基金
0+阅读 · 2012年12月31日
中层大气—电离层(MAI)探测系统研究
国家自然科学基金
0+阅读 · 2012年12月31日
新型荧光微结构光纤二氧化碳传感器
国家自然科学基金
0+阅读 · 2012年12月31日
导电纤维复合物的微波吸收机理研究
国家自然科学基金
0+阅读 · 2011年12月31日
大功率白光LED用荧光陶瓷制备及其光谱调制研究
国家自然科学基金
0+阅读 · 2011年12月31日
磷离子注入制备高电导率n型纳米金刚石薄膜的研究
国家自然科学基金
0+阅读 · 2009年12月31日
Data Augmentation Vision Transformer for Fine-grained Image Classification
Arxiv
0+阅读 · 2022年11月23日
Explaining YOLO: Leveraging Grad-CAM to Explain Object Detections
Arxiv
0+阅读 · 2022年11月22日
MIMII DG: Sound Dataset for Malfunctioning Industrial Machine Investigation and Inspection for Domain Generalization Task
Arxiv
0+阅读 · 2022年11月22日
AI Accelerator Survey and Trends
Arxiv
28+阅读 · 2021年9月18日
Domain Generalization in Vision: A Survey
Arxiv
16+阅读 · 2021年7月18日
Towards Open World Object Detection
Arxiv
13+阅读 · 2021年3月3日
A Survey of Methods for Low-Power Deep Learning and Computer Vision
Arxiv
14+阅读 · 2020年3月24日
The Book of Why: Review
Arxiv
15+阅读 · 2019年9月30日
Distributed Machine Learning on Mobile Devices: A Survey
Arxiv
35+阅读 · 2019年9月18日
Fine-tune BERT for Extractive Summarization
Arxiv
21+阅读 · 2019年3月25日
VIP会员
自助开通(推荐)
客服开通
详情
相关主题
GPU
Transformer模型
视频
带宽
Transformer
大模型
相关VIP内容
斯坦福大学首个Transformers专题讲座视频放出,NLP、CV和RL无所不包
专知会员服务
44+阅读 · 2022年7月12日
【特斯拉 AI 高级总监 Andrej Karpathy最新博客】2055年深度神经网络会怎么样?:33年前DNN和33年后DNN,Deep Neural Nets: 33 years ago and 33 years from now
专知会员服务
10+阅读 · 2022年3月14日
Swin Transformer重磅升级!Swin V2:向更大容量、更高分辨率的更大模型迈进
专知会员服务
26+阅读 · 2021年11月20日
台大李宏毅《机器学习》2021课程撒花完结!除了视频、PPT,还有人汇编了一本答疑书
专知会员服务
78+阅读 · 2021年8月9日
【LinkedIn工程总监洪亮劼】浅谈工业级推荐系统,附36页ppt与视频
专知会员服务
30+阅读 · 2020年10月6日
最新《文本深度学习模型压缩》综述论文,21页pdf
专知会员服务
25+阅读 · 2020年8月19日
Facebook AI何恺明等最新研究MoCo(动量对比学习)第二版,超越Hinton的SimCLR,刷新ImageNet准确率
专知会员服务
35+阅读 · 2020年3月11日
Google AI博客解读论文《Reformer: The Efficient Transformer》,百万量级注意力机制
专知会员服务
69+阅读 · 2020年1月17日
模型压缩究竟在做什么?我们真的需要模型压缩么?
专知会员服务
27+阅读 · 2020年1月16日
【大佬约架】Yoshua Bengio与Gary Marcus之圣诞AI论战「 AI 之道」,附视频地址与slides下载
专知会员服务
23+阅读 · 2019年12月25日
热门VIP内容
开通专知VIP会员 享更多权益服务
军用数据链:武器装备神经,联合作战基石,31页pdf
【ETHZ博士论文】超越像素深度:通过深度学习增强超分辨率技术,198页pdf
2018∼2023年国家自然科学基金人工智能学科人才项目申请及资助综述
【NeurIPS2024】《AmoebaLLM:构建任意形状的大型语言模型以实现高效和即时部署》
相关资讯
PyTorch创始人:Transformer太火很不好,AI易撞墙
机器之心
1+阅读 · 2022年10月3日
英伟达发布4090超级核弹!台积电4nm,顶配12999元起,性能暴涨4倍
新智元
0+阅读 · 2022年9月20日
苏妈官宣首款5纳米旗舰CPU!AMD终于能突破5GHz了
新智元
0+阅读 · 2022年8月30日
挑战OpenAI!以色列AI21 Labs推最新语言模型:侏罗纪-X
新智元
0+阅读 · 2022年7月26日
单机训练200亿参数大模型:Cerebras打破新纪录
机器之心
1+阅读 · 2022年6月25日
经验分享:如何在自己的创业中,用上GPT-3等AI大模型
学术头条
1+阅读 · 2022年3月5日
经验分享:如何在创业中,用上GPT-3等AI大模型
THU数据派
1+阅读 · 2022年3月2日
老黄没来!英伟达祭出GPU之王RTX 3090Ti,元宇宙平台开放
新智元
0+阅读 · 2022年1月5日
5300亿!巨型语言模型参数每年暴涨10倍,新「摩尔定律」要来了?
新智元
0+阅读 · 2021年10月27日
聊一聊“超大模型”
夕小瑶的卖萌屋
1+阅读 · 2021年7月6日
相关基金
高阶微分方程的周期解及多重性
国家自然科学基金
0+阅读 · 2015年12月31日
激光加载对NEA半导体光阴极激活层的破坏机理研究
国家自然科学基金
0+阅读 · 2014年12月31日
近紫外光激发白光LED用氯氧化物稀土双掺杂敏化Mn2+红色荧光粉的发光特性和能量传递研究
国家自然科学基金
0+阅读 · 2013年12月31日
基于特征量反演的拉索损伤声发射监测理论与试验研究
国家自然科学基金
0+阅读 · 2013年12月31日
离子液体基集热纳米流体的光热转化性能调控和传热特性
国家自然科学基金
0+阅读 · 2012年12月31日
中层大气—电离层(MAI)探测系统研究
国家自然科学基金
0+阅读 · 2012年12月31日
新型荧光微结构光纤二氧化碳传感器
国家自然科学基金
0+阅读 · 2012年12月31日
导电纤维复合物的微波吸收机理研究
国家自然科学基金
0+阅读 · 2011年12月31日
大功率白光LED用荧光陶瓷制备及其光谱调制研究
国家自然科学基金
0+阅读 · 2011年12月31日
磷离子注入制备高电导率n型纳米金刚石薄膜的研究
国家自然科学基金
0+阅读 · 2009年12月31日
相关论文
Data Augmentation Vision Transformer for Fine-grained Image Classification
Arxiv
0+阅读 · 2022年11月23日
Explaining YOLO: Leveraging Grad-CAM to Explain Object Detections
Arxiv
0+阅读 · 2022年11月22日
MIMII DG: Sound Dataset for Malfunctioning Industrial Machine Investigation and Inspection for Domain Generalization Task
Arxiv
0+阅读 · 2022年11月22日
AI Accelerator Survey and Trends
Arxiv
28+阅读 · 2021年9月18日
Domain Generalization in Vision: A Survey
Arxiv
16+阅读 · 2021年7月18日
Towards Open World Object Detection
Arxiv
13+阅读 · 2021年3月3日
A Survey of Methods for Low-Power Deep Learning and Computer Vision
Arxiv
14+阅读 · 2020年3月24日
The Book of Why: Review
Arxiv
15+阅读 · 2019年9月30日
Distributed Machine Learning on Mobile Devices: A Survey
Arxiv
35+阅读 · 2019年9月18日
Fine-tune BERT for Extractive Summarization
Arxiv
21+阅读 · 2019年3月25日
大家都在搜
PRML
壁画
大型语言模型
ETHZ博士论文
时间序列
智能推荐
洛克菲勒
汽车智能化
无人艇
出海产品从 0 到 1 该怎么做
Top
提示
微信扫码
咨询专知VIP会员与技术项目合作
(加微信请备注: "专知")
微信扫码咨询专知VIP会员
Top