Most neural network pruning methods, such as filter-level and layer-level prunings, prune the network model along one dimension (depth, width, or resolution) solely to meet a computational budget. However, such a pruning policy often leads to excessive reduction of that dimension, thus inducing a huge accuracy loss. To alleviate this issue, we argue that pruning should be conducted along three dimensions comprehensively. For this purpose, our pruning framework formulates pruning as an optimization problem. Specifically, it first casts the relationships between a certain model's accuracy and depth/width/resolution into a polynomial regression and then maximizes the polynomial to acquire the optimal values for the three dimensions. Finally, the model is pruned along the three optimal dimensions accordingly. In this framework, since collecting too much data for training the regression is very time-costly, we propose two approaches to lower the cost: 1) specializing the polynomial to ensure an accurate regression even with less training data; 2) employing iterative pruning and fine-tuning to collect the data faster. Extensive experiments show that our proposed algorithm surpasses state-of-the-art pruning algorithms and even neural architecture search-based algorithms.


翻译:大部分神经网络的运行方法,例如过滤水平和层次水平的运行线,将网络模型按一个维(深度、宽度或分辨率)仅仅用于计算预算,将网络模型按一个维(深度、宽度或分辨率)推入一个维度(深度、宽度或分辨率),仅用于计算预算。然而,这种削减政策往往导致该维的过度减少,从而导致巨大的准确性损失。为了缓解这一问题,我们主张,应当按照三个维的完整度全面进行运行。为此,我们主张,应当按照三个维的完整方法,如过滤,进行运行。为此,我们的运行框架将作为一个优化问题进行运行。具体地,我们的运行框架首先将某种模型的准确性和深度/宽度/宽度/宽度/分辨率/分辨率之间的关系划成一个维度(深度、深度、广度或分辨率/分辨率/分辨率/分辨率,仅用于一个维度,仅用于计算计算计算一个计算,仅满足一个多数值,仅一个维度(深度、深度、深度、广度、宽度、宽度、宽度、宽度、分辨率/宽度、分辨率/分辨率)的一个维/分辨率,仅一个维度,仅一个维的模型,仅一个维的模型模型模型模型模型,仅一个维的模型模型模型,仅一个维的模型,仅一个维的模型,仅一个维的模型,仅一个维的模型,仅一个维度模型的模型的模型,仅一个维度模型的模型的模型,仅一个维度模型,仅一个维的模型,仅一个维度模型,一个维的模型,其一个维度、一个维度、一个维的模型,一个维度,一个维度,一个维的模型,一个维的模型,一个维度,一个维度,一个维的模型,一个维度,一个维度,一个维的模型,一个,一个,一个,一个,一个,一个,一个,一个,一个,一个,一个,一个,一个,一个,一个,一个,一个,一个,一个,一个,一个,一个,一个,一个,一个,一个,一个,一个,一个,一个,一个,一个,一个,一个,一个,一个,一个,一个,一个,一个,一个,一个,一个,一个,一个,一个,一个,一个,一个,一个,一个,一个,一个,一个

0
下载
关闭预览

相关内容

【ACML2020】张量网络机器学习:最近的进展和前沿,109页ppt
专知会员服务
54+阅读 · 2020年12月15日
专知会员服务
60+阅读 · 2020年3月19日
深度神经网络模型压缩与加速综述
专知会员服务
128+阅读 · 2019年10月12日
[综述]深度学习下的场景文本检测与识别
专知会员服务
77+阅读 · 2019年10月10日
最新BERT相关论文清单,BERT-related Papers
专知会员服务
52+阅读 · 2019年9月29日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
28+阅读 · 2019年5月18日
Deep Compression/Acceleration:模型压缩加速论文汇总
极市平台
14+阅读 · 2019年5月15日
已删除
将门创投
5+阅读 · 2019年3月29日
逆强化学习-学习人先验的动机
CreateAMind
15+阅读 · 2019年1月18日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
CNN模型压缩与加速算法综述
微信AI
6+阅读 · 2017年10月11日
【推荐】深度学习目标检测全面综述
机器学习研究会
21+阅读 · 2017年9月13日
CNN 模型压缩与加速算法综述
机器学习研究会
16+阅读 · 2017年8月25日
Accelerated Methods for Deep Reinforcement Learning
Arxiv
6+阅读 · 2019年1月10日
Arxiv
6+阅读 · 2018年4月24日
Arxiv
3+阅读 · 2017年12月14日
VIP会员
相关资讯
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
28+阅读 · 2019年5月18日
Deep Compression/Acceleration:模型压缩加速论文汇总
极市平台
14+阅读 · 2019年5月15日
已删除
将门创投
5+阅读 · 2019年3月29日
逆强化学习-学习人先验的动机
CreateAMind
15+阅读 · 2019年1月18日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
CNN模型压缩与加速算法综述
微信AI
6+阅读 · 2017年10月11日
【推荐】深度学习目标检测全面综述
机器学习研究会
21+阅读 · 2017年9月13日
CNN 模型压缩与加速算法综述
机器学习研究会
16+阅读 · 2017年8月25日
Top
微信扫码咨询专知VIP会员