深度学习的核心目标是学习神经网络各层特征的紧凑表示,这对无监督表示学习和结构网络剪枝都很有用。虽然在结构修剪方面的工作越来越多,但目前最先进的方法有两个关键限制:(1)训练期间不稳定,(2)需要额外的微调步骤,这是资源密集型的。这些限制的核心是缺乏一种系统的方法,在单个阶段的训练中联合修剪和细化权重,不需要在收敛上进行任何微调,以实现最先进的性能。本文提出了一种新的单级结构剪枝方法——判别掩蔽(DAM)。DAM背后的关键思路是,在训练过程中,有选择地选择一些神经元进行精炼,而逐渐掩盖其他神经元。我们表明,我们提出的DAM方法在各种应用中具有非常好的性能,包括降维、推荐系统、图表示学习和图像分类的结构化剪枝。我们还从理论上证明了DAM的学习目标与掩蔽层L0范数的最小化直接相关。

成为VIP会员查看完整内容
15

相关内容

机器学习的一个分支,它基于试图使用包含复杂结构或由多重非线性变换构成的多个处理层对数据进行高层抽象的一系列算法。

知识荟萃

精品入门和进阶教程、论文和代码整理等

更多

查看相关VIP内容、论文、资讯等
【NeurIPS2021】NeRV:视频的神经表示
专知会员服务
11+阅读 · 2021年10月28日
专知会员服务
9+阅读 · 2021年10月17日
专知会员服务
6+阅读 · 2021年9月20日
【ICLR2021】自监督蒸馏学习视觉表示
专知会员服务
33+阅读 · 2021年4月14日
专知会员服务
11+阅读 · 2021年3月25日
[NeurIPS 2020] 球形嵌入的深度度量学习
专知会员服务
16+阅读 · 2020年11月8日
【NeurIPS2020-FB】学习具有可解码信息瓶颈的最优表示
专知会员服务
22+阅读 · 2020年10月13日
视觉与听觉相结合的深度跨域情绪识别
PaperWeekly
6+阅读 · 2020年4月24日
几种句子表示方法的比较
AINLP
15+阅读 · 2019年9月21日
手把手解释实现频谱图卷积
AI科技评论
9+阅读 · 2019年9月9日
利用神经网络进行序列到序列转换的学习
AI研习社
12+阅读 · 2019年4月26日
谷歌 MorphNet:让你的神经网络更小但更快
机器学习算法与Python学习
5+阅读 · 2019年4月18日
如何设计基于深度学习的图像压缩算法
论智
41+阅读 · 2018年4月26日
Arxiv
9+阅读 · 2021年10月26日
Arxiv
25+阅读 · 2021年3月20日
Attentive Graph Neural Networks for Few-Shot Learning
Arxiv
40+阅读 · 2020年7月14日
Continual Unsupervised Representation Learning
Arxiv
7+阅读 · 2019年10月31日
Arxiv
10+阅读 · 2017年12月29日
VIP会员
相关VIP内容
【NeurIPS2021】NeRV:视频的神经表示
专知会员服务
11+阅读 · 2021年10月28日
专知会员服务
9+阅读 · 2021年10月17日
专知会员服务
6+阅读 · 2021年9月20日
【ICLR2021】自监督蒸馏学习视觉表示
专知会员服务
33+阅读 · 2021年4月14日
专知会员服务
11+阅读 · 2021年3月25日
[NeurIPS 2020] 球形嵌入的深度度量学习
专知会员服务
16+阅读 · 2020年11月8日
【NeurIPS2020-FB】学习具有可解码信息瓶颈的最优表示
专知会员服务
22+阅读 · 2020年10月13日
相关资讯
视觉与听觉相结合的深度跨域情绪识别
PaperWeekly
6+阅读 · 2020年4月24日
几种句子表示方法的比较
AINLP
15+阅读 · 2019年9月21日
手把手解释实现频谱图卷积
AI科技评论
9+阅读 · 2019年9月9日
利用神经网络进行序列到序列转换的学习
AI研习社
12+阅读 · 2019年4月26日
谷歌 MorphNet:让你的神经网络更小但更快
机器学习算法与Python学习
5+阅读 · 2019年4月18日
如何设计基于深度学习的图像压缩算法
论智
41+阅读 · 2018年4月26日
微信扫码咨询专知VIP会员