Pruning the weights of neural networks is an effective and widely-used technique for reducing model size and inference complexity. We develop and test a novel method based on compressed sensing which combines the pruning and training into a single step. Specifically, we utilize an adaptively weighted $\ell^1$ penalty on the weights during training, which we combine with a generalization of the regularized dual averaging (RDA) algorithm in order to train sparse neural networks. The adaptive weighting we introduce corresponds to a novel regularizer based on the logarithm of the absolute value of the weights. We perform a series of ablation studies demonstrating the improvement provided by the adaptive weighting and generalized RDA algorithm. Furthermore, numerical experiments on the CIFAR-10, CIFAR-100, and ImageNet datasets demonstrate that our method 1) trains sparser, more accurate networks than existing state-of-the-art methods; 2) can be used to train sparse networks from scratch, i.e. from a random initialization, as opposed to initializing with a well-trained base model; 3) acts as an effective regularizer, improving generalization accuracy.


翻译:抑制神经网络的重量是减少模型大小和推断复杂性的一种有效而广泛使用的技术。我们开发和测试一种基于压缩遥感的新颖方法,该方法将修剪和培训合并为一个步骤。具体地说,我们在培训期间对重量使用一种适应性加权的1美元罚款,我们将其与常规的双均分算法的概括化结合起来,以便培训稀薄的神经网络。我们引入的适应性加权法与基于这些重量绝对值对数的新型正规化法相对应。我们进行了一系列的减缩研究,展示了适应性加权法和通用RDA算法所提供的改进。此外,在CIFAR-10、CIFAR-100和图像网络数据集上进行的数字实验表明,我们的方法1)培训了稀疏者,比现有最新方法更精确的网络;2)我们采用的适应性加权法可以用来从零开始,即随机初始化,而不是以经过良好训练的基础模型初始化;3)作为有效的常规化者,提高一般化的准确性。

0
下载
关闭预览

相关内容

【DeepMind】强化学习教程,83页ppt
专知会员服务
152+阅读 · 2020年8月7日
专知会员服务
60+阅读 · 2020年3月19日
开源书:PyTorch深度学习起步
专知会员服务
50+阅读 · 2019年10月11日
机器学习入门的经验与建议
专知会员服务
92+阅读 · 2019年10月10日
鲁棒机器学习相关文献集
专知
8+阅读 · 2019年8月18日
Deep Compression/Acceleration:模型压缩加速论文汇总
极市平台
14+阅读 · 2019年5月15日
2018机器学习开源资源盘点
专知
6+阅读 · 2019年2月2日
条件GAN重大改进!cGANs with Projection Discriminator
CreateAMind
8+阅读 · 2018年2月7日
已删除
将门创投
4+阅读 · 2017年11月1日
CNN模型压缩与加速算法综述
微信AI
6+阅读 · 2017年10月11日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
Arxiv
0+阅读 · 2021年6月1日
Arxiv
0+阅读 · 2021年6月1日
Arxiv
6+阅读 · 2019年3月19日
Arxiv
3+阅读 · 2018年8月17日
VIP会员
相关资讯
鲁棒机器学习相关文献集
专知
8+阅读 · 2019年8月18日
Deep Compression/Acceleration:模型压缩加速论文汇总
极市平台
14+阅读 · 2019年5月15日
2018机器学习开源资源盘点
专知
6+阅读 · 2019年2月2日
条件GAN重大改进!cGANs with Projection Discriminator
CreateAMind
8+阅读 · 2018年2月7日
已删除
将门创投
4+阅读 · 2017年11月1日
CNN模型压缩与加速算法综述
微信AI
6+阅读 · 2017年10月11日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
Top
微信扫码咨询专知VIP会员