多核之后,CPU 的发展方向是什么?中科院计算所包云岗详细解读

2021 年 1 月 15 日 机器之心
机器之心转载
选自知乎
作者:包云岗

后摩尔定律时代,CPU 性能提升放缓,计算力增长式微。多核之后,CPU 还能借助哪些方向实现突围?在这篇文章中,中国科学院计算技术研究所研究员包云岗对这一问题进行了详细解读。


包云岗,中国科学院计算技术研究所研究员、博士生导师、中国科学院大学教授,中国开放指令生态(RISC-V)联盟秘书长,从事计算机体系结构和开源芯片方向前沿研究,主持研制多款达到国际先进水平的原型系统,相关技术在华为、阿里等国内外企业应用。他曾获「CCF-Intel 青年学者」奖、阿里巴巴最佳合作项目奖、「CCF-IEEE CS」青年科学家奖等奖项。


2020 年底给某大厂做过一个报告,包含两部分内容:一部分是关于计算机体系结构,尤其是 CPU 结构的演变;另一部分关于处理器芯片设计方法。这里把第一部分内容贴出来回答一下这个知乎问题。


1. 首先回顾一下计算机体系结构领域三个定律: 摩尔定律、牧村定律、贝尔定律 。摩尔定律就不用多说了,但想表达一个观点是摩尔定律未死,只是不断放缓。


2. 摩尔定律让芯片上的晶体管数量不断增加,但一个问题是这些晶体管都被充分用起来了吗?最近 MIT 团队在《Science》上发表了一篇文章《There’s plenty of room at the Top: What will drive computer performance after Moore’s law?》,给出他们的答案: 显然没有!

可以来看一下 MIT 团队开展的一个小实验(见下面 PPT):假设用 Python 实现一个矩阵乘法的性能是 1,那么用 C 语言重写后性能可以提高 50 倍,如果再充分挖掘体系结构特性(如循环并行化、访存优化、SIMD 等),那么 性能甚至可以提高 63000 倍 。然而,真正能如此深入理解体系结构、写出这种极致性能的程序员绝对是凤毛麟角。

问题是这么大的性能差异到底算好还是坏?从软件开发角度来看,这显然不是好事。这意味着大多数程序员无法充分发挥 CPU 的性能,无法充分利用好晶体管。这不能怪程序员,更主要还是因为 CPU 微结构太复杂了,导致软件难以发挥出硬件性能。

如何解决这个问题? 领域专用架构 DSA(Domain-Specific Architecture)就是一个有效的方法。 DSA 可以针对特定领域应用程序,定制微结构,从而实现数量级提高性能功耗比。这相当于是把顶尖程序员的知识直接实现到硬件上。


3. 第二个定律是牧村定律(也有称「牧村波动」)。1987 年, 原日立公司总工程师牧村次夫(Tsugio Makimoto) 提出,半导体产品发展历程总是在 「标准化」与「定制化」 之间交替摆动,大概每十年波动一次。牧村定律背后是性能功耗和开发效率之间的平衡。

对于处理器来说,就是 专用结构和通用结构 之间的平衡。最近这一波开始转向了追求性能功耗,于是专用结构开始更受关注。


4. 第三个定律是 贝尔定律 。这是 Gordon Bell 在 1972 年提出的一个观察,具体内容如下面的 PPT 所述。值得一提的是超级计算机应用最高奖 “戈登 · 贝尔奖” 就是以他的名字命名。


5. 贝尔定律指明了未来一个新的发展趋势,也就是 AIoT 时代的到来。 这将会是一个处理器需求再度爆发的时代,但同时也会是一个需求碎片化的时代 ,不同的领域、不同行业对芯片需求会有所不同,比如集成不同的传感器、不同的加速器等等。 如何应对碎片化需求 ?这又将会是一个挑战。


6. 这三个定律都驱动计算机体系结构向一个方向发展,那就是「DSA」 。如何实现 DSA,这又涉及到两个方面:

为了追求性能功耗,有三条主要的设计原则(见下面 PPT);

为了应对碎片化需求,则需要发展出处理器敏捷设计新方法。(这个回答就不介绍敏捷设计方法了)


7. 在谈一些具体技术之前,我们可以 先总体看一下过去几十年 CPU 性能是如何提升的 。下面这页 PPT 列出了 1995-2015 这二十年 Intel 处理器的架构演进过程——这是一个不断迭代优化的过程,集成了上百个架构优化技术。

这些技术之间还存在很多耦合,带来很大的设计复杂度。比如 2011 年在 Sandy Bridge 上引入了 大页面技术 ,要实现这个功能,会涉及到 超标量、乱序执行、大内存、SSE 指令、多核、硬件虚拟化、uOP Fusion 等等一系列 CPU 模块和功能的修改,还涉及 操作系统、编译器、函数库 等软件层次修改,可谓是牵一发动全身。(经常看到有人说芯片设计很简单,也许是因为还没有接触过 CPU 芯片的设计,不知道 CPU 设计的复杂度)


8. 处理器内部有非常复杂的状态,其状态变化是由程序驱动的。也就是说, 处理器状态取决于程序行为 (见下面 PPT),而 CPU 体系结构层次的优化思路就是发现程序行为中的共性特征并进行加速。

如何发现程序行为中的共性特征,就是处理器优化的关键点,这 需要对程序行为、操作系统、编程与编译、体系结构等多个层次都有很好的理解,这也是计算机体系结构博士的基本要求 。这也是为什么很多国外的计算机体系结构方向属于 Computer Science 系。

题外话:这两天看到国内成立集成电路一级学科,这是一个好消息。不过要能培育 CPU 设计人才,在课程设计上不要忽视了操作系统、编程与编译这些传统计算机科学的课程。


9. 举两个发现热点应用和热点代码、并在体系结构层次上优化的例子。一个例子是发现在不少领域 TCP/IP 协议栈五层协议(L5Ps) 存在很多大量共性操作,比如加密解密等,于是直接在网卡上实现了一个针对 L5Ps 的加速器,大幅加速了网络包处理能力。另一个例子是这次疫情导致云计算数据中心 大量算力都用来做视频转码 ,于是设计了一个硬件加速器专门来加速视频转码,大幅提升了数据中心效率。



10. 发现和识别这种热点应用和热点代码并不容易,需要由很强大的基础设施和分析设备。比如 Google 在其数据中心内部有一个 GWP 工具,能对整个数据中心应用在很低的开销下进行监测与统计,找到算力被那些热点程序 / 代码消耗,当前的 CPU 哪些部件是瓶颈。比如 GWP 显示在 Google 数据中心内部有 5% 的算力被用来做压缩

正是得益于这些基础工具,Google 很早就发现 AI 应用在数据中心中应用比例越来越高,于是开始专门设计 TPU 来加速 AI 应用。


11. 下面分别从三个方面来介绍 体系结构层面的常见优化思路:减少数据移动、降低数据精度、提高处理并行度。

首先看一下如何减少数据移动。第一个切入点是 指令集 ——指令集是程序语义的一种表达方式。同一个算法可以用不同粒度的指令集来表达,但执行效率会有很大的差别。一般而言,粒度越大,表达能力变弱,但是执行效率会变高。



12. 通用指令集为了能覆盖尽可能多的应用,所以往往需要支持上千条指令,导致 流水线前端设计(取指、译码、分支预测等)变得很复杂,对性能与功耗都会产生负面影响。


13. 针对某一个领域设计专用指令集,则可以大大减少指令数量,并且可以 增大操作粒度、融合访存优化,实现数量级提高性能功耗比 。下面 PPT 的这组数据是斯坦福大学团队曾经做过的一项研究,从这个图可以看出, 使用了「Magic Instruction」后,性能功耗比大幅提升几十倍 。而这种 Magic Instruction 其实就是一个非常具体的表达式以及对应的电路实现(见 PPT 右下角)。


14. 第二个减少数据移动的常用方法就是充分发挥缓存的作用。访存部件其实是处理器最重要的部分了,涉及许多技术点(如下面 PPT)。 很多人都关注处理器的流水线多宽多深,但其实大多数时候,访存才是对处理器性能影响最大的。

关于访存优化,也有一系列技术,包括替换、预取等等。这些技术到今天也依然是体系结构研究的重点,这里就不展开细讲了。


15. 不再展开介绍访存优化技术,就选最近比较热的内存压缩方向介绍一下。

IBM 在最新的 Z15 处理器中增加了一个内存压缩加速模块,比软件压缩效率提高 388 倍,效果非常突出。


16. 英伟达也在研究如何在 GPU 中通过内存压缩技术来提升片上存储的有效容量,从而提高应用性能。


17. Intel 在访存优化上很下功夫,可以通过对比两款 Intel CPU 来一窥究竟。Core 2 Due T9600 和 Pentium G850 两块 CPU,工艺差一代,但频率相近,分别是 2.8GHz 和 2.9GHz,但性能差了 77%——SPEC CPU 分值 G850 是 31.7 分,而 T9600 只有 17.9 分。

频率相当,为何性能会差这么多?事实上,G850 的 Cache 容量比 T9600 还要小——6MB L2 vs. 256KB L2 + 3MB L3。

如果再仔细对比下去,就会发现这两款处理器 最大的区别在于 G850 适配的内存控制器中引入 FMA(Fast Memory Access)优化技术 ,大幅提高了访存性能。


18. 第二类体系结构优化技术是降低数据精度。这方面是这几年研究的热点,特别是在深度学习领域,很多研究发现不需要 64 位浮点,只需要 16 位甚至 8 位定点来运算,精度也没有什么损失,但性能却得到数倍提升。

很多 AI 处理器都在利用这个思路进行优化,包括前段时间日本研制的世界最快的超级计算机 “富岳” 中的 CPU 中就采用了不同的运算精度。因此 其基于低精度的 AI 运算能力可以达到 1.4EOPS,比 64 位浮点运算性能(416PFLOPS)要高 3.4 倍


19. IEEE 754 浮点格式的一个弊端是不容易进行不同精度之间的转换 。近年来学术界提出一种新的浮点格式——POSIT,更容易实现不同的精度,甚至 有一些学者呼吁用 POSIT 替代 IEEE 754 (Posit: A Potential Replacement for IEEE 754)。

RISC-V 社区一直在关注 POSIT,也有团队实现了基于 POSIT 的浮点运算部件 FPU ,但是也还存在一些争论(David Patterson 和 POSIT 发明人 John L. Gustafson 之间还有一场精彩的辩论,另外找机会再介绍)。


20. 体系结构层次的第三个优化思路就是并行。这个题目中提到的 “多核”,就是这个思路中一个具体的技术。除了多核,还有其他不同层次的并行度,比如指令集并行、线程级并行、请求级别并行;除了指令级并行 ILP,还有访存级并行 MLP。总之,提高处理并行度是一种很有效的优化手段。



以上是关于计算机体系结构尤其是 CPU 结构优化思路的一个大致梳理,供大家参考。总结来说就是两点结论:

1. 领域专用体系结构 DSA 是未来一段时间体系结构发展趋势;
2. 体系结构层面 3 条优化路线——减少数据移动、降低数据精度、提高处理并行度。



原文链接:https://www.zhihu.com/question/20809971/answer/1678502542

Nature论文线上分享 | 世界最快光子AI卷积加速器
世界最快光子AI卷积加速器登上Nature,该研究展示的是一种"光学神经形态处理器",其运行速度是以往任何处理器的1000多倍,该系统还能处理创纪录大小的超大规模图像——足以实现完整的面部图像识别,这是其他光学处理器一直无法完成的。
1月18日19:00,论文一作、莫纳什大学研究员徐兴元博士带来线上分享,详细介绍他们的工作以及光学芯片领域进展。
添加机器之心小助手(syncedai5),备注「光子」,进群一起看直播。

© THE END 

转载请联系本公众号获得授权

投稿或寻求报道:content@jiqizhixin.com

登录查看更多
0

相关内容

MIT《图神经网络的任务结构与泛化》,22页ppt
专知会员服务
23+阅读 · 2021年2月28日
专知会员服务
26+阅读 · 2021年2月26日
专知会员服务
64+阅读 · 2021年2月21日
【博士论文】解耦合的类脑计算系统栈设计
专知会员服务
29+阅读 · 2020年12月14日
智源发布《2020北京人工智能发展报告》,附43页pdf
专知会员服务
124+阅读 · 2020年11月19日
【NeurIPS 2020】图神经网络GNN架构设计
专知会员服务
80+阅读 · 2020年11月19日
鲁棒模式识别研究进展
专知会员服务
40+阅读 · 2020年8月9日
2020图机器学习GNN的四大研究趋势,21篇论文下载
专知会员服务
135+阅读 · 2020年2月10日
【AI芯片】计算芯片——大数据和人工智能的基石
产业智能官
9+阅读 · 2020年3月8日
一个阿里技术大牛对人工智能方向的看法
网易智能菌
8+阅读 · 2019年4月24日
清华朱军教授:机器学习未来的几大挑战与目前进展
DeepTech深科技
4+阅读 · 2018年10月29日
前端高性能计算(4):GPU加速计算
前端大全
7+阅读 · 2017年10月26日
一文详解脑科学研究与产业发展方向
人工智能学家
6+阅读 · 2017年10月24日
观点 | 计算机视觉,路在何方
微软研究院AI头条
6+阅读 · 2017年6月21日
Arxiv
0+阅读 · 2021年4月21日
Arxiv
10+阅读 · 2021年3月30日
Arxiv
5+阅读 · 2020年8月18日
Contrastive Representation Distillation
Arxiv
5+阅读 · 2019年10月23日
VIP会员
相关VIP内容
MIT《图神经网络的任务结构与泛化》,22页ppt
专知会员服务
23+阅读 · 2021年2月28日
专知会员服务
26+阅读 · 2021年2月26日
专知会员服务
64+阅读 · 2021年2月21日
【博士论文】解耦合的类脑计算系统栈设计
专知会员服务
29+阅读 · 2020年12月14日
智源发布《2020北京人工智能发展报告》,附43页pdf
专知会员服务
124+阅读 · 2020年11月19日
【NeurIPS 2020】图神经网络GNN架构设计
专知会员服务
80+阅读 · 2020年11月19日
鲁棒模式识别研究进展
专知会员服务
40+阅读 · 2020年8月9日
2020图机器学习GNN的四大研究趋势,21篇论文下载
专知会员服务
135+阅读 · 2020年2月10日
相关资讯
【AI芯片】计算芯片——大数据和人工智能的基石
产业智能官
9+阅读 · 2020年3月8日
一个阿里技术大牛对人工智能方向的看法
网易智能菌
8+阅读 · 2019年4月24日
清华朱军教授:机器学习未来的几大挑战与目前进展
DeepTech深科技
4+阅读 · 2018年10月29日
前端高性能计算(4):GPU加速计算
前端大全
7+阅读 · 2017年10月26日
一文详解脑科学研究与产业发展方向
人工智能学家
6+阅读 · 2017年10月24日
观点 | 计算机视觉,路在何方
微软研究院AI头条
6+阅读 · 2017年6月21日
Top
微信扫码咨询专知VIP会员