Network compression has been widely studied since it is able to reduce the memory and computation cost during inference. However, previous methods seldom deal with complicated structures like residual connections, group/depth-wise convolution and feature pyramid network, where channels of multiple layers are coupled and need to be pruned simultaneously. In this paper, we present a general channel pruning approach that can be applied to various complicated structures. Particularly, we propose a layer grouping algorithm to find coupled channels automatically. Then we derive a unified metric based on Fisher information to evaluate the importance of a single channel and coupled channels. Moreover, we find that inference speedup on GPUs is more correlated with the reduction of memory rather than FLOPs, and thus we employ the memory reduction of each channel to normalize the importance. Our method can be used to prune any structures including those with coupled channels. We conduct extensive experiments on various backbones, including the classic ResNet and ResNeXt, mobile-friendly MobileNetV2, and the NAS-based RegNet, both on image classification and object detection which is under-explored. Experimental results validate that our method can effectively prune sophisticated networks, boosting inference speed without sacrificing accuracy.


翻译:对网络压缩进行了广泛的研究,因为它能够减少内存和计算在推论期间的成本,然而,以前的方法很少涉及复杂的结构,如残余连接、群/深度进化和地貌金字塔网络等复杂结构,多层的渠道是同时连接的,需要同时修剪。在本文中,我们提出了一个可以应用于各种复杂结构的一般频道修剪方法。特别是,我们提议了一个层分组算法,以自动找到连接的渠道。然后,我们根据渔业信息得出一个统一的衡量标准,以评估单一频道和连接频道的重要性。此外,我们发现GPUs的加速推论与记忆的减少而不是FLOPs的关系更大,因此我们采用了每个频道的内存减少使重要性正常化的方法。我们的方法可以用来处理任何结构,包括连接渠道的结构。我们在各种骨干上进行广泛的实验,包括经典的ResNet和ResNeXt、方便移动式的移动网络2,以及基于NAS RegNet, 两者都涉及图像分类和对象探测,而这种分析不到速度。实验结果证实我们的方法能够有效地复制精密的网络。

0
下载
关闭预览

相关内容

专知会员服务
18+阅读 · 2021年9月16日
【ICLR-2020】网络反卷积,NETWORK DECONVOLUTION
专知会员服务
37+阅读 · 2020年2月21日
YOLOv5 深度可视化解析
CVer
26+阅读 · 2020年8月16日
YOLOv5是真的吗?并不比YOLOv4强,不配这个名字
机器之心
3+阅读 · 2020年7月10日
深度卷积神经网络中的降采样
极市平台
12+阅读 · 2019年5月24日
Deep Compression/Acceleration:模型压缩加速论文汇总
极市平台
14+阅读 · 2019年5月15日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
16+阅读 · 2018年12月24日
哇~这么Deep且又轻量的Network,实时目标检测
计算机视觉战队
7+阅读 · 2018年8月15日
从YOLOv1到YOLOv3,目标检测的进化之路
AI100
9+阅读 · 2018年6月4日
Arxiv
0+阅读 · 2021年9月30日
Arxiv
8+阅读 · 2021年4月21日
Arxiv
5+阅读 · 2019年2月28日
Neural Architecture Optimization
Arxiv
8+阅读 · 2018年9月5日
VIP会员
相关资讯
YOLOv5 深度可视化解析
CVer
26+阅读 · 2020年8月16日
YOLOv5是真的吗?并不比YOLOv4强,不配这个名字
机器之心
3+阅读 · 2020年7月10日
深度卷积神经网络中的降采样
极市平台
12+阅读 · 2019年5月24日
Deep Compression/Acceleration:模型压缩加速论文汇总
极市平台
14+阅读 · 2019年5月15日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
16+阅读 · 2018年12月24日
哇~这么Deep且又轻量的Network,实时目标检测
计算机视觉战队
7+阅读 · 2018年8月15日
从YOLOv1到YOLOv3,目标检测的进化之路
AI100
9+阅读 · 2018年6月4日
Top
微信扫码咨询专知VIP会员