GPT5后NLP大模型逐步走向收敛,ASIC将大有可为。理论来说,当大模型的算力、数据量以及参数量同时增大的时候,整个模型的效果会越来越好。GPT-3使用的数据量为40T,预测GPT-4的数据量需求为400T,但未来数据量将不会无限增大,所以当数据量不能增长的时候,光靠算力和模型参数量增长,并不能增强模型的效果。换言之,受到数据量的限制,NLP大语言模型的迭代或将进入停滞期。在模型迭代停滞期,若应用爆发,则ASIC芯片的优势就显现出来。ASIC针对特定需求开发,可根据需求对性能和功耗进行定向优化,其专用的芯片架构与高复杂度的算法相匹配,量产后在性能、功耗、成本方面均具有较大优势,ASIC芯片将大有可为。

  头部厂商纷纷切入AIASIC领域,技术路径不同。谷歌15年发布第一代TPU(ASIC)产品,TPU产品持续迭代升级;英特尔19年收购人工智能芯片公司HabanaLabs,22年发布AIASIC芯片Gaudi2,性能表现出色;IBM研究院22年底发布AIASIC芯片AIU,有望23年上市;三星第一代AIASIC芯片WarboyNPU芯片已于近日量产。头部厂商纷纷切入AIASIC领域,看好ASIC在人工智能领域的长期成长性。   谷歌:谷歌为AIASIC芯片的先驱,于15年发布第一代TPU(ASIC)产品,大幅提升AI推理的性能;17年发布TPUv2,在芯片设计层面,进行大规模架构更新,使其同时具备AI推理和AI训练的能力;谷歌TPU产品持续迭代升级,21年发布TPUv4,采用7nm工艺,峰值算力达275TFLOPS,性能表现全球领先。   英特尔:19年底收购以色列人工智能芯片公司HabanaLabs,22年发布Gaudi2ASIC芯片。从架构来看,Gaudi架构拥有双计算引擎(MME和TPC),可以实现MME和TPC并行计算,大幅提升计算效率;同时,其将RDMA技术应用于芯片互联,大幅提升AI集群的并行处理能力;从性能来看,Gaudi2在ResNET-50、BERT、BERTPhase-1、BERTPhase-2模型的训练吞吐量优于英伟达A100,性能表现优异。

成为VIP会员查看完整内容
74

相关内容

ChatGPT(全名:Chat Generative Pre-trained Transformer),美国OpenAI 研发的聊天机器人程序 [1] ,于2022年11月30日发布 。ChatGPT是人工智能技术驱动的自然语言处理工具,它能够通过学习和理解人类的语言来进行对话,还能根据聊天的上下文进行互动,真正像人类一样来聊天交流,甚至能完成撰写邮件、视频脚本、文案、翻译、代码,写论文任务。 [1] https://openai.com/blog/chatgpt/
【ChatGPT系列报告】AIGC空间广阔,行业应用大有可为
专知会员服务
108+阅读 · 2023年3月8日
【ChatGPT系列报告】ChatGPT:百度文心一言畅想,41页ppt
专知会员服务
212+阅读 · 2023年3月3日
【ChatGPT系列报告】ChatGPT 引发的大模型时代变革,80页pdf
专知会员服务
216+阅读 · 2023年2月28日
【ChatGPT系列报告】ChatGPT不断突破,AI驶入快车道
专知会员服务
134+阅读 · 2023年2月23日
【ChatGPT系列报告】AIGC & ChatGPT 发展报告,27页ppt
专知会员服务
346+阅读 · 2023年2月18日
揭秘ChatGPT情感对话能力
专知
15+阅读 · 2023年4月9日
阿里版ChatGPT就快来了
机器之心
4+阅读 · 2023年4月4日
1秒出图,全球最快的开源Stable Diffusion出炉
机器之心
2+阅读 · 2022年11月7日
国家自然科学基金
8+阅读 · 2017年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
1+阅读 · 2013年12月31日
国家自然科学基金
1+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
Arxiv
0+阅读 · 2023年6月11日
A Survey of Large Language Models
Arxiv
320+阅读 · 2023年3月31日
Arxiv
44+阅读 · 2022年9月6日
VIP会员
相关基金
国家自然科学基金
8+阅读 · 2017年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
1+阅读 · 2013年12月31日
国家自然科学基金
1+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
微信扫码咨询专知VIP会员