The computation and memory needed for Convolutional Neural Network (CNN) inference can be reduced by pruning weights from the trained network. Pruning is guided by a pruning saliency, which heuristically approximates the change in the loss function associated with the removal of specific weights. Many pruning signals have been proposed, but the performance of each heuristic depends on the particular trained network. This leaves the data scientist with a difficult choice. When using any one saliency metric for the entire pruning process, we run the risk of the metric assumptions being invalidated, leading to poor decisions being made by the metric. Ideally we could combine the best aspects of different saliency metrics. However, despite an extensive literature review, we are unable to find any prior work on composing different saliency metrics. The chief difficulty lies in combining the numerical output of different saliency metrics, which are not directly comparable. We propose a method to compose several primitive pruning saliencies, to exploit the cases where each saliency measure does well. Our experiments show that the composition of saliencies avoids many poor pruning choices identified by individual saliencies. In most cases our method finds better selections than even the best individual pruning saliency.


翻译:进化神经网络(CNN) 的推论所需的计算和记忆可以通过从经过训练的网络中削减重量来降低。 普鲁宁 以一个精细的显著性为指导, 精细的显著性指导, 精细的显著性能与特定重量的去除相关的损失函数的变化相近。 许多微弱的信号已经提出, 但每个湿度的性能取决于特定受过训练的网络。 这给数据科学家留下了一个困难的选择。 当使用任何一种明显的精细度度量度来计算整个精细度过程时, 我们就会面临指标假设无效的风险, 导致指标做出错误的决定。 理想的是, 我们可以将不同显著度度量度的最佳方面结合起来。 然而, 尽管进行了广泛的文献审查, 我们仍无法找到任何先前关于形成不同显著度度度度量值参数的工作。 主要的困难在于将不同显著度量度的数值产出结合起来, 而这些指数并不直接可比。 我们建议一种方法来计算几个原始的原始的精度度度特征, 来利用每个突出度度度度法都很好的例子。 我们的实验表明, 突出度的构成甚至避免了我们最差的偏差的突出的选取的个别的特征。

0
下载
关闭预览

相关内容

专知会员服务
37+阅读 · 2021年7月17日
《DeepGCNs: Making GCNs Go as Deep as CNNs》
专知会员服务
31+阅读 · 2019年10月17日
强化学习最新教程,17页pdf
专知会员服务
177+阅读 · 2019年10月11日
机器学习入门的经验与建议
专知会员服务
94+阅读 · 2019年10月10日
【哈佛大学商学院课程Fall 2019】机器学习可解释性
专知会员服务
104+阅读 · 2019年10月9日
MIT新书《强化学习与最优控制》
专知会员服务
277+阅读 · 2019年10月9日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
【NIPS2018】接收论文列表
专知
5+阅读 · 2018年9月10日
可解释的CNN
CreateAMind
17+阅读 · 2017年10月5日
【学习】Hierarchical Softmax
机器学习研究会
4+阅读 · 2017年8月6日
Arxiv
0+阅读 · 2021年8月24日
Arxiv
0+阅读 · 2021年8月23日
Arxiv
4+阅读 · 2021年7月1日
Arxiv
3+阅读 · 2018年6月18日
VIP会员
相关VIP内容
专知会员服务
37+阅读 · 2021年7月17日
《DeepGCNs: Making GCNs Go as Deep as CNNs》
专知会员服务
31+阅读 · 2019年10月17日
强化学习最新教程,17页pdf
专知会员服务
177+阅读 · 2019年10月11日
机器学习入门的经验与建议
专知会员服务
94+阅读 · 2019年10月10日
【哈佛大学商学院课程Fall 2019】机器学习可解释性
专知会员服务
104+阅读 · 2019年10月9日
MIT新书《强化学习与最优控制》
专知会员服务
277+阅读 · 2019年10月9日
Top
微信扫码咨询专知VIP会员