前沿 | 手机运行神经网络,MIT新方法使神经网络能耗降低 73%

2017 年 7 月 19 日 机器之心

选自MIT News

机器之心编译

参与:Smith、路雪


麻省理工的研究人员已经设计出了一种新型的精简神经网络的方法。此方法通过给神经网络的能耗进行建模的方式使整个系统更加轻便,可在掌上设备中更加有效地运行。



近年来,在自动驾驶、语音识别、计算机视觉和自动翻译等领域表现优秀的人工智能系统无不受益于神经网络。但是,神经网络会消耗大量内存和能源,因此往往需要在云端服务器上运行,从桌面或移动设备上获取数据,然后返回分析结果。


去年,MIT 电气工程和计算机科学系(EECS)副教授 Vivienne Sze 和同事研发出一种新的适用于神经网络的高能效计算机芯片,这种芯片可使人工智能系统在移动设备上进行本地运行。


现在,Sze 和同事还试图从另一个方向解决该问题,即运用电池技术设计更节能的神经网络。他们首先提出一种方法,该方法能够确定神经网络在特定类型的硬件上运行时的能耗。然后,他们使用该方法评估降低神经网络能耗的新技术,以使神经网络能够更高效地在掌上设备中运行。


研究者在下周计算机视觉与模式识别大会(Computer Vision and Pattern Recognition Conference,CVPR)的参会论文中详述了这项工作。该论文介绍了将神经网络标准耗电量降低 73% 的方法,这比之前降低网络耗电量的最优方法低了 43%。


能耗评估器


以大脑解剖学为设计基础的神经网络包含成千上万甚至数百万的简单但紧密互联的信息处理节点,这些节点通常形成多个连接层。神经网络的类型根据层数、节点之间连接线的数量、以及每一层的节点总数的不同而发生变化。


节点之间的连接有「权重」,即给定节点的输出对下一个节点计算能力的影响力大小。在训练过程中,向神经网络提供大量学习样本,并持续调整其权重,直到网络最后一层的输出与计算结果保持持续相符。


「我们首先开发了一个能量模型工具,用来记录数据移动、交易和数据流动,」Sze 说,「只要给它一个神经结构和权重值,它就能告诉你该神经网络的能耗。人们会问『权重高的浅层网络能耗大,还是权重低的深层网络能耗大?』该工具可以帮助我们更好地了解能量的去向,这样算法设计者可以将其作为反馈,从而对能耗情况有更全面的了解。了解能量实际去向之后,我们开始使用该模型设计节能的神经网络。」


Sze 说,过去研究者使用「精简」(pruning)法降低神经网络的能耗。节点之间低权重的连接对神经网络最终输出结果贡献极小,因此许多连接被去除或者说被修剪掉了。


原则性精简


在能量模型的帮助下,Sze 和她的同事——第一作者 Tien-Ju Yang 和 Yu-Hsin Chen(电气工程与计算机科学系的研究生),改变了此方法。尽管去掉大量的低权重连接(low-weight connections)对神经网络输出仅有一些小的影响,但是如果把所有都去掉的话可能就会产生比较大的负面作用了,所以在精简方法中必须有一些机制来决定何时停止。


因此 MIT 的研究人员就开始精简网络中那些消耗能量最多的连接层。他们把这种方法命名为「能源感知型精简」。(「energy-aware pruning」)。


神经网络中的权重既可以是正的,也可以是负的,所以研究人员也在寻找哪些具有相反符号的连接有相互抵消的倾向。已知节点的输入,是其下方连接层的输出与它们之间的权重的乘积。因此研究人员的方法不仅要关注权重本身,也要关注相关节点处理训练数据的方式。在早期,只有当拥有正负权重的连接组合持续地进行相互性补偿时,它们才可以被安全地削减掉。这就引出了比早期精简方法拥有更少连接的,且更高效的网络。


最近,「深度学习界的很多活动已经指向了有限计算力平台下的高效神经网络结构的相关研发工作」,谷歌移动端视觉团队的领导 Hartwig Adam 说道,「然而,大多数相关研究都聚焦于减小模型规格或计算能力,其实由于电池使用率和热限制(heat restriction)的存在,智能手机和很多其它设备的能耗问题才是最为重要的。」我们的工作正在采用一种关于 CNN 结构优化的先进性方法,直接通过使用一种精良的新型能量评估工具使其能耗最小化,并且它展现出了比以计算能力为中心的方法更高的增益。我希望这一领域内的其他研究人员会跟随此种方法,并且把这种一般方法论应用到神经网络模型设计当中。


原文链接:http://news.mit.edu/2017/bringing-neural-networks-cellphones-0718



本文为机器之心编译,转载请联系本公众号获得授权

✄------------------------------------------------

加入机器之心(全职记者/实习生):hr@jiqizhixin.com

投稿或寻求报道:editor@jiqizhixin.com

广告&商务合作:bd@jiqizhixin.com


点击阅读原文,查看机器之心官网↓↓↓

登录查看更多
1

相关内容

人工神经网络(Artificial Neural Network,即ANN ),是20世纪80 年代以来人工智能领域兴起的研究热点。它从信息处理角度对人脑神经元网络进行抽象, 建立某种简单模型,按不同的连接方式组成不同的网络。在工程与学术界也常直接简称为神经网络或类神经网络。神经网络是一种运算模型,由大量的节点(或称神经元)之间相互联接构成。每个节点代表一种特定的输出函数,称为激励函数(activation function)。每两个节点间的连接都代表一个对于通过该连接信号的加权值,称之为权重,这相当于人工神经网络的记忆。网络的输出则依网络的连接方式,权重值和激励函数的不同而不同。而网络自身通常都是对自然界某种算法或者函数的逼近,也可能是对一种逻辑策略的表达。 最近十多年来,人工神经网络的研究工作不断深入,已经取得了很大的进展,其在模式识别、智能机器人、自动控制、预测估计、生物、医学、经济等领域已成功地解决了许多现代计算机难以解决的实际问题,表现出了良好的智能特性。
专知会员服务
73+阅读 · 2020年5月21日
深度神经网络实时物联网图像处理,241页pdf
专知会员服务
76+阅读 · 2020年3月15日
【Google】利用AUTOML实现加速感知神经网络设计
专知会员服务
29+阅读 · 2020年3月5日
最新!Yann Lecun 纽约大学Spring2020深度学习课程,附PPT下载
深度神经网络模型压缩与加速综述
专知会员服务
128+阅读 · 2019年10月12日
分布式智能计算系统前沿
中国计算机学会
19+阅读 · 2019年10月8日
量子计算、边缘计算、数据挖掘 前沿研究报告
人工智能学家
6+阅读 · 2019年3月16日
脉冲神经网络与小样本学习【附PPT】
人工智能前沿讲习班
46+阅读 · 2019年2月1日
硬件加速神经网络综述
计算机研究与发展
26+阅读 · 2019年2月1日
已删除
将门创投
7+阅读 · 2018年11月5日
Arxiv
19+阅读 · 2019年4月5日
Arxiv
25+阅读 · 2018年1月24日
VIP会员
相关资讯
分布式智能计算系统前沿
中国计算机学会
19+阅读 · 2019年10月8日
量子计算、边缘计算、数据挖掘 前沿研究报告
人工智能学家
6+阅读 · 2019年3月16日
脉冲神经网络与小样本学习【附PPT】
人工智能前沿讲习班
46+阅读 · 2019年2月1日
硬件加速神经网络综述
计算机研究与发展
26+阅读 · 2019年2月1日
已删除
将门创投
7+阅读 · 2018年11月5日
Top
微信扫码咨询专知VIP会员