In recent years, deep neural networks have known a wide success in various application domains. However, they require important computational and memory resources, which severely hinders their deployment, notably on mobile devices or for real-time applications. Neural networks usually involve a large number of parameters, which correspond to the weights of the network. Such parameters, obtained with the help of a training process, are determinant for the performance of the network. However, they are also highly redundant. The pruning methods notably attempt to reduce the size of the parameter set, by identifying and removing the irrelevant weights. In this paper, we examine the impact of the training strategy on the pruning efficiency. Two training modalities are considered and compared: (1) fine-tuned and (2) from scratch. The experimental results obtained on four datasets (CIFAR10, CIFAR100, SVHN and Caltech101) and for two different CNNs (VGG16 and MobileNet) demonstrate that a network that has been pre-trained on a large corpus (e.g. ImageNet) and then fine-tuned on a particular dataset can be pruned much more efficiently (up to 80% of parameter reduction) than the same network trained from scratch.


翻译:近年来,深心神经网络在各种应用领域取得了广泛成功,然而,它们需要重要的计算和记忆资源,这严重妨碍了其部署,特别是在移动设备或实时应用程序上。神经网络通常涉及大量参数,这些参数与网络的重量相对应。这些参数是在培训过程中获得的,是网络运行的决定因素。但是,它们也是非常多余的。运行方法明显试图通过识别和去除无关的重量来缩小设定的参数的大小。我们在本文件中审查了培训战略对运行效率的影响。我们考虑并比较了两种培训模式:(1)从头到尾:(1) 微调和(2) 从头到尾。在四个数据集(CIFAR10、CIFAR100、SVHN和Caltech101)和两个不同的CNN(VG16和MiveNet)上取得的实验结果表明,在大型(例如图像网络)上预先培训过的网络,然后对特定数据集进行微调,其效率可以大大地(从受过训练的10 %)从同一网络上削减。

0
下载
关闭预览

相关内容

Networking:IFIP International Conferences on Networking。 Explanation:国际网络会议。 Publisher:IFIP。 SIT: http://dblp.uni-trier.de/db/conf/networking/index.html
自然语言处理现代方法,176页pdf
专知会员服务
263+阅读 · 2021年2月22日
神经网络的拓扑结构,TOPOLOGY OF DEEP NEURAL NETWORKS
专知会员服务
30+阅读 · 2020年4月15日
《DeepGCNs: Making GCNs Go as Deep as CNNs》
专知会员服务
30+阅读 · 2019年10月17日
强化学习最新教程,17页pdf
专知会员服务
167+阅读 · 2019年10月11日
已删除
将门创投
3+阅读 · 2019年11月25日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
Arxiv
0+阅读 · 2022年2月16日
Simplifying Graph Convolutional Networks
Arxiv
7+阅读 · 2019年6月20日
Arxiv
6+阅读 · 2019年4月8日
CoCoNet: A Collaborative Convolutional Network
Arxiv
6+阅读 · 2019年1月28日
Arxiv
31+阅读 · 2018年11月13日
VIP会员
相关资讯
已删除
将门创投
3+阅读 · 2019年11月25日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
Top
微信扫码咨询专知VIP会员