Deep convolutional neural networks are shown to be overkill with high parametric and computational redundancy in many application scenarios, and an increasing number of works have explored model pruning to obtain lightweight and efficient networks. However, most existing pruning approaches are driven by empirical heuristic and rarely consider the joint impact of channels, leading to unguaranteed and suboptimal performance. In this paper, we propose a novel channel pruning method via Class-Aware Trace Ratio Optimization (CATRO) to reduce the computational burden and accelerate the model inference. Utilizing class information from a few samples, CATRO measures the joint impact of multiple channels by feature space discriminations and consolidates the layer-wise impact of preserved channels. By formulating channel pruning as a submodular set function maximization problem, CATRO solves it efficiently via a two-stage greedy iterative optimization procedure. More importantly, we present theoretical justifications on convergence of CATRO and performance of pruned networks. Experimental results demonstrate that CATRO achieves higher accuracy with similar computation cost or lower computation cost with similar accuracy than other state-of-the-art channel pruning algorithms. In addition, because of its class-aware property, CATRO is suitable to prune efficient networks adaptively for various classification subtasks, enhancing handy deployment and usage of deep networks in real-world applications.


翻译:CATRO:通过类别感知痕迹比优化进行的通道剪枝 深度卷积神经网络在许多应用场景中表现出高参数和计算冗余,因此越来越多的研究探索了模型剪枝以获得轻量化和高效的网络。然而,大多数现有的剪枝方法是基于经验式启发式的,很少考虑通道的联合影响,从而导致性能不确定和次优。本文提出了一种基于类别感知痕迹比优化(CATRO)的新型通道剪枝方法,以降低计算负担和加速模型推理。利用少量样本的类别信息,CATRO通过特征空间辨别度度量多个通道的联合影响,并巩固保留通道的层内影响。通过将通道剪枝视为子模块集函数最大化问题,CATRO通过两阶段贪婪迭代优化过程有效地解决了这个问题。更重要的是,本文提出了CATRO收敛性和剪枝网络性能的理论证明。实验结果表明,与其他最新的通道剪枝算法相比,CATRO在相似的计算成本下获得更高的准确性,或在相似的准确性下获得更低的计算成本。此外,由于其类别感知属性,CATRO适合在各种分类子任务中自适应地剪枝高效网络,增强了深度网络在实际应用中的方便部署和使用。

0
下载
关闭预览

相关内容

【ECCV2022】UniNet:具有卷积、Transformer和MLP的统一架构搜索
【SIGGRAPH 2022】域增强的任意图像风格对比迁移方法
专知会员服务
25+阅读 · 2022年4月20日
【CVPR2022】MSDN: 零样本学习的互语义蒸馏网络
专知会员服务
20+阅读 · 2022年3月8日
【AAAI2022】跨域少样本图分类
专知会员服务
29+阅读 · 2022年1月22日
WSDM2022 | DualDE:基于知识图谱蒸馏的低成本推理
专知会员服务
18+阅读 · 2022年1月20日
专知会员服务
111+阅读 · 2020年6月26日
论文浅尝 | 记忆推理:最近邻知识图谱嵌入
开放知识图谱
2+阅读 · 2022年7月23日
卷积核扩大到51x51,新型CNN架构SLaK反击Transformer
【CVPR 2020 Oral】小样本类增量学习
专知
16+阅读 · 2020年6月26日
灾难性遗忘问题新视角:迁移-干扰平衡
CreateAMind
17+阅读 · 2019年7月6日
深度网络自我学习,最终实现更少样本的学习
计算机视觉战队
12+阅读 · 2018年7月30日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
6+阅读 · 2015年12月31日
国家自然科学基金
5+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
5+阅读 · 2013年12月31日
国家自然科学基金
2+阅读 · 2012年12月31日
国家自然科学基金
1+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
1+阅读 · 2009年12月31日
Arxiv
24+阅读 · 2018年10月24日
Arxiv
12+阅读 · 2018年9月15日
VIP会员
相关基金
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
6+阅读 · 2015年12月31日
国家自然科学基金
5+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
5+阅读 · 2013年12月31日
国家自然科学基金
2+阅读 · 2012年12月31日
国家自然科学基金
1+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
1+阅读 · 2009年12月31日
Top
微信扫码咨询专知VIP会员