神经网络修剪——通过删除参数来减小网络大小的任务——是近年来大量工作的主题。我们提供了文献的荟萃分析,包括剪枝方法的概述和文献中一致的发现。在对81篇论文的结果进行汇总,并在受控条件下对数百个模型进行修剪之后,我们最明确的发现是,社区缺乏标准化的基准和度量标准。这一缺陷非常严重,以至于很难对修剪技术进行比较,也很难确定这一领域在过去三十年中取得了多大的进步。为了解决这种情况,我们确定了当前实践中的问题,提出了具体的补救措施,并引入了ShrinkBench,这是一个开源框架,用于促进修剪方法的标准化评估。我们使用收缩台对各种修剪技术进行了比较,结果表明,它的综合评价可以防止在比较修剪方法时常见的缺陷。

成为VIP会员查看完整内容
28

相关内容

人工神经网络(Artificial Neural Network,即ANN),它从信息处理角度对人脑神经元网络进行抽象,建立某种简单模型,按不同的连接方式组成不同的网络。在工程与学术界也常直接简称为神经网络或类神经网络。神经网络是一种运算模型,由大量的节点(或称神经元)之间相互联接构成。每个节点代表一种特定的输出函数,称为激励函数(activation function)。每两个节点间的连接都代表一个对于通过该连接信号的加权值,称之为权重,这相当于人工神经网络的记忆。网络的输出则依网络的连接方式,权重值和激励函数的不同而不同。而网络自身通常都是对自然界某种算法或者函数的逼近,也可能是对一种逻辑策略的表达。
大数据安全技术研究进展
专知会员服务
92+阅读 · 2020年5月2日
[CVPR 2020-港中文-MIT] 神经架构搜索鲁棒性
专知会员服务
25+阅读 · 2020年4月7日
自动机器学习:最新进展综述
专知会员服务
118+阅读 · 2019年10月13日
深度神经网络模型压缩与加速综述
专知会员服务
128+阅读 · 2019年10月12日
硬件加速神经网络综述
计算机研究与发展
26+阅读 · 2019年2月1日
【优青论文】深度神经网络压缩与加速综述
计算机研究与发展
14+阅读 · 2018年9月20日
PRL导读-2018年120卷15期
中科院物理所
4+阅读 · 2018年4月23日
TensorFlow 相关论文与研究汇总
云栖社区
4+阅读 · 2018年1月7日
2017深度学习NLP进展与趋势
云栖社区
7+阅读 · 2017年12月17日
Neural Speech Synthesis with Transformer Network
Arxiv
5+阅读 · 2019年1月30日
Arxiv
19+阅读 · 2018年6月27日
Arxiv
5+阅读 · 2017年11月30日
VIP会员
相关VIP内容
相关资讯
硬件加速神经网络综述
计算机研究与发展
26+阅读 · 2019年2月1日
【优青论文】深度神经网络压缩与加速综述
计算机研究与发展
14+阅读 · 2018年9月20日
PRL导读-2018年120卷15期
中科院物理所
4+阅读 · 2018年4月23日
TensorFlow 相关论文与研究汇总
云栖社区
4+阅读 · 2018年1月7日
2017深度学习NLP进展与趋势
云栖社区
7+阅读 · 2017年12月17日
微信扫码咨询专知VIP会员