Filter pruning is one of the most effective ways to accelerate and compress convolutional neural networks (CNNs). In this work, we propose a global filter pruning algorithm called Gate Decorator, which transforms a vanilla CNN module by multiplying its output by the channel-wise scaling factors, i.e. gate. When the scaling factor is set to zero, it is equivalent to removing the corresponding filter. We use Taylor expansion to estimate the change in the loss function caused by setting the scaling factor to zero and use the estimation for the global filter importance ranking. Then we prune the network by removing those unimportant filters. After pruning, we merge all the scaling factors into its original module, so no special operations or structures are introduced. Moreover, we propose an iterative pruning framework called Tick-Tock to improve pruning accuracy. The extensive experiments demonstrate the effectiveness of our approaches. For example, we achieve the state-of-the-art pruning ratio on ResNet-56 by reducing 70% FLOPs without noticeable loss in accuracy. For ResNet-50 on ImageNet, our pruned model with 40% FLOPs reduction outperforms the baseline model by 0.31% in top-1 accuracy. Various datasets are used, including CIFAR-10, CIFAR-100, CUB-200, ImageNet ILSVRC-12 and PASCAL VOC 2011. Code is available at github.com/youzhonghui/gate-decorator-pruning


翻译:过滤过滤器运行是加速和压缩卷变神经网络(CNNs)的最有效方法之一。 在这项工作中, 我们提出一个叫“ 门装饰器” 的全球过滤运行算法, 它将香草CNN模块的输出乘以频道角度的缩放因子, 即门。 当缩放因子设定为零时, 它相当于删除相应的过滤器。 我们使用泰勒扩张来估计由于将缩放因将缩放因设定为零而导致的损失函数的变化, 并使用全球过滤重要性排序的估算值。 然后我们通过删除这些不重要的过滤器来利用网络。 在运行后, 我们将所有缩放因子都合并到其原始模块, 因此没有引入特殊操作或结构。 此外, 我们提议了一个迭接接的调试框架, 叫做Tick-Tock, 来提高运行准确度。 广泛的实验显示了我们的方法的有效性。 例如, 我们通过将 ResNet- 和 NSB/ 5, 而将70% FLOP 的 FLOP 模式降低到 。 在图像网络上, 我们的 RIS- 50, IM1 使用 的 IMFAR 的 的 模型中, 的 CRA- 10 的准确性模型是 。

0
下载
关闭预览

相关内容

【清华大学】图随机神经网络,Graph Random Neural Networks
专知会员服务
154+阅读 · 2020年5月26日
神经网络的拓扑结构,TOPOLOGY OF DEEP NEURAL NETWORKS
专知会员服务
31+阅读 · 2020年4月15日
深度神经网络模型压缩与加速综述
专知会员服务
128+阅读 · 2019年10月12日
深度卷积神经网络中的降采样
极市平台
12+阅读 · 2019年5月24日
Deep Compression/Acceleration:模型压缩加速论文汇总
极市平台
14+阅读 · 2019年5月15日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
【推荐】深度学习目标检测概览
机器学习研究会
10+阅读 · 2017年9月1日
【推荐】全卷积语义分割综述
机器学习研究会
19+阅读 · 2017年8月31日
【推荐】图像分类必读开创性论文汇总
机器学习研究会
14+阅读 · 2017年8月15日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
Arxiv
8+阅读 · 2019年5月20日
Arxiv
12+阅读 · 2019年4月9日
Simplifying Graph Convolutional Networks
Arxiv
12+阅读 · 2019年2月19日
CoCoNet: A Collaborative Convolutional Network
Arxiv
6+阅读 · 2019年1月28日
Arxiv
19+阅读 · 2018年6月27日
Arxiv
7+阅读 · 2018年1月10日
VIP会员
相关论文
Arxiv
8+阅读 · 2019年5月20日
Arxiv
12+阅读 · 2019年4月9日
Simplifying Graph Convolutional Networks
Arxiv
12+阅读 · 2019年2月19日
CoCoNet: A Collaborative Convolutional Network
Arxiv
6+阅读 · 2019年1月28日
Arxiv
19+阅读 · 2018年6月27日
Arxiv
7+阅读 · 2018年1月10日
Top
微信扫码咨询专知VIP会员