For many years, the family of convolutional neural networks (CNNs) has been a workhorse in deep learning. Recently, many novel CNN structures have been designed to address increasingly challenging tasks. To make them work efficiently on edge devices, researchers have proposed various structured network pruning strategies to reduce their memory and computational cost. However, most of them only focus on reducing the number of filter channels per layer without considering the redundancy within individual filter channels. In this work, we explore pruning from another dimension, the kernel size. We develop a CNN pruning framework called SMOF, which Squeezes More Out of Filters by reducing both kernel size and the number of filter channels. Notably, SMOF is friendly to standard hardware devices without any customized low-level implementations, and the pruning effort by kernel size reduction does not suffer from the fixed-size width constraint in SIMD units of general-purpose processors. The pruned networks can be deployed effortlessly with significant running time reduction. We also support these claims via extensive experiments on various CNN structures and general-purpose processors for mobile devices.


翻译:多年来,进化神经网络(CNNs)的家族一直是深层学习的一匹工马。最近,许多新型CNN结构设计成一个称为SMOF的CNN运行框架,通过减少内核大小和过滤通道的数量,使这些结构化的CNN结构能够有效地发挥作用。为了使这些结构化网络运行起来,研究人员提出了各种结构化的网络运行战略,以减少记忆和计算成本;然而,其中大多数只是侧重于减少每个层的过滤渠道的数量,而没有考虑到单个过滤渠道的冗余。在这项工作中,我们探索从另一个层面,即内核体大小进行运行。我们开发了一个CNN的运行框架,称为SMOF,通过减少内核体大小和过滤通道的数量,将过滤器挤出更多的过滤器。值得注意的是,SMOF对标准硬件设备是友好的,而没有定制的低级实施,而内核规模的运行努力并不受到一般用途处理器的固定尺寸的宽度限制。运行网络可以不费力地部署,大量减少时间。我们还通过对各种CNNCN结构和移动装置的普通用途处理器进行广泛的试验来支持这些主张。

0
下载
关闭预览

相关内容

【哈佛大学商学院课程Fall 2019】机器学习可解释性
专知会员服务
104+阅读 · 2019年10月9日
【SIGGRAPH2019】TensorFlow 2.0深度学习计算机图形学应用
专知会员服务
41+阅读 · 2019年10月9日
Transferring Knowledge across Learning Processes
CreateAMind
28+阅读 · 2019年5月18日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
已删除
清华大学研究生教育
3+阅读 · 2018年6月30日
可解释的CNN
CreateAMind
17+阅读 · 2017年10月5日
【推荐】TensorFlow手把手CNN实践指南
机器学习研究会
5+阅读 · 2017年8月17日
Arxiv
0+阅读 · 2021年12月16日
Learning in the Frequency Domain
Arxiv
11+阅读 · 2020年3月12日
Arxiv
8+阅读 · 2019年5月20日
Arxiv
7+阅读 · 2018年3月22日
VIP会员
相关VIP内容
【哈佛大学商学院课程Fall 2019】机器学习可解释性
专知会员服务
104+阅读 · 2019年10月9日
【SIGGRAPH2019】TensorFlow 2.0深度学习计算机图形学应用
专知会员服务
41+阅读 · 2019年10月9日
相关资讯
Transferring Knowledge across Learning Processes
CreateAMind
28+阅读 · 2019年5月18日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
已删除
清华大学研究生教育
3+阅读 · 2018年6月30日
可解释的CNN
CreateAMind
17+阅读 · 2017年10月5日
【推荐】TensorFlow手把手CNN实践指南
机器学习研究会
5+阅读 · 2017年8月17日
Top
微信扫码咨询专知VIP会员