节能1000倍!仿人脑神经芯片跑AI模型竟然这么省电

2022 年 2 月 25 日 新智元



  新智元报道  

编辑:袁榭 好困

【新智元导读】为了克服现下大型神经网络模型一跑就要大量耗电的弊端,德国与瑞士研究者在仿照人脑架构的神经拟态芯片上获得突破,有望以此芯片用当下千分之一的能耗运行未来大型AI。

作为如今最成功的人工智能算法,人工神经网络,可以松散地模拟了人脑中真实神经网络的复杂链接。
 
不过与人脑的高能效相比,实在是太费电了。
 
 
于是,神经拟态计算应运而生,这种技术更贴近模仿了人脑的运作机理与物理定律。
 
然而,由于器件失配难题,模拟神经元的质性会与设计略有不同,且电压和电流水平在不同的神经元之间也有差异。
 
相比之下,AI算法的训练则是在具有完全一致的数字神经元的计算机上完成的。

因此,实际在神经拟态芯片上运行时,经常会出现「水土不服」的问题。
 
 
2022年1月在美国国家科学院院刊上发布的一篇论文,揭示了绕过此难题的一种途径。
 
论文链接: https://www.pnas.org/content/119/4/e2109194119
 
由瑞士弗雷德里希米歇尔生物医疗研究所的研究者弗里德曼·曾克,与德国海德堡大学的研究者约翰内斯·希密尔联合组成的团队,在脉冲神经网络这一类型的AI算法上获得新进展。
 
脉冲神经网络使用模仿人脑中的特色脉冲交流讯号,可以在神经拟态芯片上运行,学会如何代偿芯片中的器件失配。
 
此论文是AI迈向神经拟态运算的显著一步。
 

模拟神经网络


与现有AI运行设备不同,神经拟态计算并不将数据在长间隔距离的CPU与存储卡之间搬运。
 
神经拟态芯片设计模仿果冻般人脑的基础架构,将计算单元(神经元)置于存储单元(连接神经元的突触)旁边。
 
为了让设计更像人脑,研究者将神经拟态芯片结合模拟计算,如此能像真实神经元一样处理持续不断的信号。
 
 
这样产出的芯片,与现下依赖处理0与1的二元基础信号的数码计算模式和架构,有显著不同。
 
以人脑作为设计指南,神经拟态芯片承诺有朝一日终结AI等大数据量运算工作的高耗能。不幸的是,AI算法在神经拟态芯片的模拟版本上运行效果不佳。
 
这是因为器件失配的缺陷:在生产过程中,芯片里模拟神经元的微型组件大小出现不匹配。
 
由于单个芯片不足以运行最新的AI训练过程,算法必须在传统计算机上进行预训练。
 
但之后将算法转输到芯片上时,一旦遇上模拟硬件不匹配的问题,算法就两眼一抹黑了。
 
 
基于人脑设计的计算模式是模拟计算而非数码计算,这点差别微妙而关键。
 
数码计算只能有效呈现人脑脉冲信号的二元性方面:脉冲信号作为一道冲过神经元的电信号,状态具有二元性,要么输出了,要么没输出,这就是0与1的区别。
 
 
不过事实上因为人脑细胞中有电压变化,当细胞内电压超过比细胞外电压高到一定程度的特定阈值,就会输出脉冲。
 
如此一来,脉冲是在一定时段内持续不绝地输出的,而且神经元决定输出脉冲的状态也是持续不绝的,这其实是一种模拟信号的状态。
 
瑞士苏黎世联邦理工学院的神经拟态工程研究者夏洛特·弗伦克尔说:「模拟态体现了人脑运算模式的核心之美。成功效仿人脑的这一关键方面,将是神经拟态运算的主驱动因素之一。」
 
2011年,海德堡大学的一组研究人员开始开发一种既有模拟态又有数码态的神经拟态芯片,为神经科学实验模拟大脑。
 
 
此后,团队又发布了新一版的芯片「BrainScaleS-2」,其中每个模拟神经元都模拟了脑细胞的输入-输出电流和电压变化。
 
不过,由于材质的导电质性不同于真人脑,芯片在速度上要比人脑快1000倍。
 
 
在这项新的工作中,通过将芯片纳入算法的训练过程,脉冲神经网络可以学习如何纠正BrainScaleS-2芯片上的电压差别。
 
为了处理器件失配的问题,团队还专门为脉冲神经网络开发了全新的方法,将芯片用梯度替代法这种学习方法与计算机交互。
 
梯度替代法通过持续改变神经元之间的连接,来尽量减少神经网络在执行任务中的错误数量(类似于非脉冲神经网络使用的反向传播)。
 
 
梯度替代法能够在计算机上的训练过程中纠正芯片的不完善之处。
 
首先,让脉冲神经网络利用芯片上模拟神经元的不同电压执行一项简单的任务,并将电压的记录发回计算机。
 
然后,让算法自动学习如何最好地改变其神经元之间的连接,以便仍能与模拟神经元很好地配合,在学习的同时持续更新芯片上的神经元。
 
最终,当训练完成后,脉冲神经网络就能在芯片上顺利地执行任务了。
 
 
研究人员表示,他们的神经网络在语音和视觉任务上,达到了与在计算机上执行任务的顶级脉冲神经网络相同的准确性。
 
换句话说,该算法准确地了解到它需要做哪些改变来克服器件失配的问题。
 
苏塞克斯大学的计算神经科学家托马斯·诺沃特尼表示:「这个系统正如预期的那样具有令人印象深刻的能效:运行所消耗的能量比标准处理器少1000倍左右。」
 
然而,弗伦克尔指出,神经拟态芯片仍然需要在为类似的语音和视觉识别任务而特别优化的硬件面前证明自己。
 
诺沃特尼也指出,这种方法可能难以扩展到大型的实际任务,因为它仍然需要在计算机和芯片之间来回搬运数据。
 
团队的终极目标则是让脉冲神经网络可以自始至终地在神经拟态芯片上训练和运行,而不需要借助传统计算机。
 
不过,设计并生产所需的新一代芯片可能要数年的时间。


作者介绍


弗里德曼·曾克

 
瑞士苏黎世弗雷德里希米歇尔生物医疗研究所的神经计算科学家。主研究方向为仿生的脉冲神经网络的学习、记忆、信息处理过程,以及机器学习与神经计算科学的交汇。  
 
约翰内斯·希密尔
 
 
德国海德堡大学物理学院专用集成电路实验室主任、电子视觉研究组负责人。研究方向是混合态超大规模集成电路系统的信息处理应用,特别是仿生神经网络模型的模拟应用方向。


参考资料:

https://www.quantamagazine.org/ai-overcomes-stumbling-block-on-brain-inspired-hardware-20220217/



登录查看更多
1

相关内容

阿里达摩院十大科技趋势报告,31页pdf
专知会员服务
66+阅读 · 2021年12月29日
周志华教授:关于深度学习的一点思考
专知会员服务
121+阅读 · 2021年11月23日
专知会员服务
24+阅读 · 2021年6月17日
多样性算力技术愿景白皮书
专知会员服务
81+阅读 · 2021年4月29日
专知会员服务
17+阅读 · 2021年3月16日
智源发布!《人工智能的认知神经基础白皮书》,55页pdf
【博士论文】解耦合的类脑计算系统栈设计
专知会员服务
30+阅读 · 2020年12月14日
单个GPU也能训练GPT-3!快来看看HP调优新范式吧!
大数据文摘
0+阅读 · 2022年4月10日
为什么俄罗斯不怕芯片卡脖子?
量子位
0+阅读 · 2022年3月14日
造火箭还是挤牙膏?苹果又有新芯片了
ZEALER订阅号
0+阅读 · 2022年1月18日
2022十大科技趋势来了!达摩院最新发布
阿里技术
0+阅读 · 2021年12月28日
联想自研芯片???
量子位
0+阅读 · 2021年11月19日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
7+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
Arxiv
0+阅读 · 2022年4月18日
Arxiv
15+阅读 · 2020年2月5日
Simplifying Graph Convolutional Networks
Arxiv
12+阅读 · 2019年2月19日
Arxiv
24+阅读 · 2018年10月24日
Arxiv
11+阅读 · 2018年5月13日
VIP会员
相关VIP内容
阿里达摩院十大科技趋势报告,31页pdf
专知会员服务
66+阅读 · 2021年12月29日
周志华教授:关于深度学习的一点思考
专知会员服务
121+阅读 · 2021年11月23日
专知会员服务
24+阅读 · 2021年6月17日
多样性算力技术愿景白皮书
专知会员服务
81+阅读 · 2021年4月29日
专知会员服务
17+阅读 · 2021年3月16日
智源发布!《人工智能的认知神经基础白皮书》,55页pdf
【博士论文】解耦合的类脑计算系统栈设计
专知会员服务
30+阅读 · 2020年12月14日
相关基金
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
7+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
相关论文
Top
微信扫码咨询专知VIP会员