Overparameterized Neural Networks (NN) display state-of-the-art performance. However, there is a growing need for smaller, energy-efficient, neural networks tobe able to use machine learning applications on devices with limited computational resources. A popular approach consists of using pruning techniques. While these techniques have traditionally focused on pruning pre-trained NN (LeCun et al.,1990; Hassibi et al., 1993), recent work by Lee et al. (2018) has shown promising results when pruning at initialization. However, for Deep NNs, such procedures remain unsatisfactory as the resulting pruned networks can be difficult to train and, for instance, they do not prevent one layer from being fully pruned. In this paper, we provide a comprehensive theoretical analysis of Magnitude and Gradient based pruning at initialization and training of sparse architectures. This allows us to propose novel principled approaches which we validate experimentally on a variety of NN architectures.


翻译:超临界神经网络(NN)展示了最先进的性能。然而,越来越需要更小的、节能的、神经网络,以便能够在计算资源有限的装置上使用机器学习应用程序。一种流行的方法包括使用修剪技术。虽然这些技术传统上侧重于修剪经过训练的NN(LeCun等人,1990年;Hassibi等人,1993年),但Lee等人(2018年)最近的工作在初始化时显示出了有希望的结果。然而,对于深海NNPs来说,这种程序仍然不能令人满意,因为由此形成的修剪网络可能难以培训,例如,它们不能防止一个层完全修剪整。在本文中,我们提供了基于初始化和稀有建筑培训修剪裁的磁度和梯度的综合理论分析。这使我们能够提出新的原则方法,我们在各种NNP结构上实验性地验证这些方法。

0
下载
关闭预览

相关内容

专知会员服务
22+阅读 · 2021年4月10日
100+篇《自监督学习(Self-Supervised Learning)》论文最新合集
专知会员服务
164+阅读 · 2020年3月18日
2019年机器学习框架回顾
专知会员服务
35+阅读 · 2019年10月11日
强化学习三篇论文 避免遗忘等
CreateAMind
19+阅读 · 2019年5月24日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
16+阅读 · 2018年12月24日
Hierarchical Imitation - Reinforcement Learning
CreateAMind
19+阅读 · 2018年5月25日
PRL导读-2018年120卷15期
中科院物理所
4+阅读 · 2018年4月23日
Arxiv
0+阅读 · 2021年5月12日
Arxiv
0+阅读 · 2021年5月7日
Arxiv
0+阅读 · 2021年5月6日
Arxiv
3+阅读 · 2017年12月14日
VIP会员
Top
微信扫码咨询专知VIP会员