摩尔定律谢幕,芯片的未来在哪?

2018 年 8 月 21 日 微软研究院AI头条



编者按:今天我们能够在工作生活中使用快速、便捷的云服务,要得益于微软研究院新体验与新技术部杰出工程师Doug Burger博士和他的同行们在计算机架构领域做出的贡献。如今,人工智能尤其是深度学习的进步对硬件和计算机架构提出了更高的要求,在本期访谈中,Doug Burger博士将介绍他的工作如何应对这样的挑战,并分享了他对后冯·诺伊曼时代硬件发展的展望。本文是访谈内容的文字精简版,了解完整内容,请收听文中采访音频。


微软研究院新体验与新技术部杰出工程师Doug Burger


采访音频


整整50年来,计算机的底层元件都遵从着“摩尔定律”:在价格不变的情况下,集成在芯片上的晶体管数量每隔18到24个月将增加一倍,计算成本呈指数型下降。摩尔定律成就了各种技术变革,例如互联网、基因组测序等等。


然而现在,摩尔定律的趋势第一次放缓了。芯片行业进入了一个不确定的时代,在同样的投入下,收益变得越来越低。我认为有两个原因。一是芯片制造商面临的一个经济问题:相比与芯片体积,大多数人对芯片的价格更敏感,要求芯片要做到经济实用;二是我所认为的真正原因,随着晶体管尺寸的不断缩小,我们遇到了原子极限,先前标准、规则结构的晶体管结构已经无法维系。


在CPU时代,我们一直沿用的范式是在CPU上运行编写好的程序。这一范式的优点在于整个计算系统所有层级都是确定的,它们有限但功能强大。芯片的原理非常简单,无非就是开关、逻辑门、二进制系统等等。但是现在,计算需求正变得越来越复杂和艰难,导致计算机结构也越来越复杂,在一块芯片上集成的电路越来越庞大。


Simon Peyton Jones曾说,计算机软件和体系架构是人们迄今为止所创造的最令人惊叹的结构。在计算机体系架构领域,任何一个接口的设计都需要调整芯片底层的架构。做芯片与做软件差别很大。编写软件时的自由度非常高,但在设计硬件时却会面临各种各样的限制:在一块尺寸有限的硅芯片上要集成各种不同功能的组件,并且要保证以正确的方式相互连接,而且要根据预算在通用性、高效性、速度、软件适配等多个维度中做出权衡


FPGA:现场可编程门阵列

在加入微软前,我曾和我的一名博士生Hadi Esmaeilzadeh做过一项关于“暗硅”(Dark Silicon)的研究。当时,业界正朝着多核芯片的方向发展,有人认为,只要能编写并行软件,就能将计算机芯片架构扩展到数千核。


我们在2011年发表的研究中发现,由于功耗的限制,一个多核处理器在同一时刻只能有很少的一部分晶体管能够工作,而其余部分则处于休眠状态。这项研究获得了相当高的关注度。


受到这一研究的启发,我们认为可以针对特定的工作使用定制硬件来加速计算,解决“暗硅”问题。但是对于普通用户来说,定制芯片的经济成本以及大量功能不同芯片的管理成本都很高。为了帮助用户解决这个问题,微软在Azure云平台上部署了FPGA(现场可编程门阵列)。


FPGA全称为“现场可编程门阵列”,之所以称为“现场可编程”,是因为在做完芯片硬件设计和算法映射之后,我们仍然可以对FPGA芯片进行实时、动态地修改。我们可以随时把它改写成其它用途的芯片,甚至可以每隔几秒修改一次。为了同时满足性能、成本和灵活性的要求,我们可以使用定制芯片来处理部分长期稳定的计算需求,而使用FPGA来处理剩余计算需求。


FPGA此前就已经广泛应用于通信领域,在处理高速数据流以及测试即将投产的芯片时的表现出色。但在云计算中,FPGA尚未真正成功地大规模使用。


CPU和GPU适合于处理不同的任务。CPU是一种通用处理器,适合处理少量数据而GPU是一种单指令、多数据(Single Instruction Multiple Data,SIMD)的并行处理器,即一条指令对不同的几组数据执行相同的操作。FPGA实际上是CPU模型的“倒置”。在FPGA上,我们不再固定数据、运行指令,而是固定一些指令、运行整批数据。我称之为“结构化计算”,其理念为固定一种计算结构,让数据不断从其中流过。FPGA非常适合这类工作负载,在云中, FPGA可以很好地完成这一使命,对CPU来说也是一种很好的补充。


FPGA每秒能够处理50GB的数据包,同时也可以确保用户的信息安全和网络私密性。面对同样的计算任务,多块CPU才能接近一块FPGA的处理速度。


于是,从2015年底开始,微软通过Project Catapult项目在微软Azure云中对FPGA进行了超大规模的部署,不管与之前相比还是跟竞争对手相比,Azure云的数据处理速度都有明显的提升。目前,微软是全球最大的FPGA使用者之一,各个团队都在使用FPGA强化自己的服务。


Brainwave:为深度神经网络“定制”处理器

在人工智能领域,目前大热的深度学习对计算机硬件和架构都提出了更高的要求,只有更好、更快的硬件和架构才能处理日益庞大的训练数据和越来越复杂的深度神经网络模型。机器翻译、语音理解、计算机视觉等经典人工智能领域的不断发展给硅芯产业带来了很大的压力。现在,许多公司都为打造人工智能、机器学习,特别是深度学习的定制架构投入了大量的资金。


Project Brainwave硬件模型


因此,我们团队打造了自己的深度神经网络处理器Brainwave。我们正与微软必应和Azure团队通力合作,为微软的各项服务提供有力的硬件与架构支持。利用Brainwave,必应团队可以摆脱计算资源的制约,能够部署体量更大的模型,从而为用户提供更好、更快、更高质量的搜索内容。


在今年的微软Build大会上,微软宣布了Project Brainwave预览版,并将其整合到Azure机器学习服务中供用户使用。同时,用户也可以自行购买微软推出的Catapult架构主板将之嵌入到生产设备上,这样就可以在边缘设备上直接运行已经在Azure上训练好的模型,从而节省时间成本。


Brainwave非常适合处理推理运算任务,对于此类任务,目前大量技术都采用“批处理”的方式。批处理能够提升计算机的处理能力,但却容易增加网络延迟。Project Brainwave可以将实时AI计算的延迟时间降到最小。不同的任务对于“实时”的要求并不相同,对于通过收集网络信息预告紧急情况的任务来说,几分钟的“实时”处理是可以接受的,但对于实时语音互动或者类似于HoloLens这种增强现实任务,“实时”处理则要求做到毫秒级。


在实际的计算任务中,除了处理速度,成本也是需要考虑的一个关键因素。Brainwave系统做到了两者兼顾,在处理速度和成本控制方面都有非常好的表现。


自从冯·诺依曼结构在上世界四十年代被提出之后,我们一直围绕着冯·诺依曼计算机和各种各样的计算机异构加速器进行研究,摩尔定律将要谢幕,我们正处于硅基和冯·诺伊曼时代的尾声。所以,我们应该考虑更深远的东西,为计算机的新的架构探索更深层次的理论。



你也许还想看


 芯片架构换血!如何评价微软在数据中心使用FPGA?

 Project Catapult:人工智能时代微软押注FPGA

 实时人工智能:微软发布Project Brainwave预览版


感谢你关注“微软研究院AI头条”,我们期待你的留言和投稿,共建交流平台。来稿请寄:msraai@microsoft.com。



登录查看更多
0

相关内容

FPGA:ACM/SIGDA International Symposium on Field-Programmable Gate Arrays。 Explanation:ACM/SIGDA现场可编程门阵列国际研讨会。 Publisher:ACM。 SIT: http://dblp.uni-trier.de/db/conf/fpga/
【CMU】深度学习模型中集成优化、约束和控制,33页ppt
专知会员服务
45+阅读 · 2020年5月23日
生物数据挖掘中的深度学习,诺丁汉特伦特大学
专知会员服务
67+阅读 · 2020年3月5日
MIT公开课-Vivienne Sze教授《深度学习硬件加速器》,86页ppt
2019中国硬科技发展白皮书 193页
专知会员服务
82+阅读 · 2019年12月13日
自动驾驶技术解读——自动驾驶汽车决策控制系统
智能交通技术
30+阅读 · 2019年7月7日
云游戏行业发展趋势分析报告
行业研究报告
13+阅读 · 2019年3月24日
Julia 对决Python:谁能在2019年称霸机器学习编程?
七月在线实验室
3+阅读 · 2019年1月13日
未来20年(2019—2039)的50个技术预测
全球创新论坛
5+阅读 · 2018年12月16日
面向云端融合的分布式计算技术研究进展与趋势
中国计算机学会
19+阅读 · 2018年11月27日
量子计算
人工智能学家
7+阅读 · 2018年4月6日
热烈祝贺南京某高校DGX-1深度学习超级计算机集群顺利交付
北京思腾合力科技有限公司
5+阅读 · 2017年11月18日
TResNet: High Performance GPU-Dedicated Architecture
Arxiv
8+阅读 · 2020年3月30日
Optimization for deep learning: theory and algorithms
Arxiv
104+阅读 · 2019年12月19日
Arxiv
22+阅读 · 2019年11月24日
Meta-Transfer Learning for Few-Shot Learning
Arxiv
8+阅读 · 2018年12月6日
VIP会员
相关资讯
自动驾驶技术解读——自动驾驶汽车决策控制系统
智能交通技术
30+阅读 · 2019年7月7日
云游戏行业发展趋势分析报告
行业研究报告
13+阅读 · 2019年3月24日
Julia 对决Python:谁能在2019年称霸机器学习编程?
七月在线实验室
3+阅读 · 2019年1月13日
未来20年(2019—2039)的50个技术预测
全球创新论坛
5+阅读 · 2018年12月16日
面向云端融合的分布式计算技术研究进展与趋势
中国计算机学会
19+阅读 · 2018年11月27日
量子计算
人工智能学家
7+阅读 · 2018年4月6日
热烈祝贺南京某高校DGX-1深度学习超级计算机集群顺利交付
北京思腾合力科技有限公司
5+阅读 · 2017年11月18日
Top
微信扫码咨询专知VIP会员