A central goal in deep learning is to learn compact representations of features at every layer of a neural network, which is useful for both unsupervised representation learning and structured network pruning. While there is a growing body of work in structured pruning, current state-of-the-art methods suffer from two key limitations: (i) instability during training, and (ii) need for an additional step of fine-tuning, which is resource-intensive. At the core of these limitations is the lack of a systematic approach that jointly prunes and refines weights during training in a single stage, and does not require any fine-tuning upon convergence to achieve state-of-the-art performance. We present a novel single-stage structured pruning method termed DiscriminAtive Masking (DAM). The key intuition behind DAM is to discriminatively prefer some of the neurons to be refined during the training process, while gradually masking out other neurons. We show that our proposed DAM approach has remarkably good performance over various applications, including dimensionality reduction, recommendation system, graph representation learning, and structured pruning for image classification. We also theoretically show that the learning objective of DAM is directly related to minimizing the L0 norm of the masking layer.


翻译:深层次学习的一个中心目标是在神经网络的每个层次上学习对特征的简明表现,这对于不受监督的代表性学习和结构化网络运行都是有用的。虽然在结构化的修剪方面工作越来越多,但目前最先进的修剪方法却有两个主要的局限性:(一) 培训期间不稳定,以及(二) 需要再加一步微调,这是资源密集型的。这些限制的核心是缺乏一种系统化的方法,在培训的单一阶段,在培训过程中联合推理和精炼重量,不需要对趋同作任何微调,以达到最新业绩。我们提出了一种新型的单一阶段结构化修剪剪方法,称为“分辨性遮掩”(DAM)。DAM背后的主要直觉是偏重某些神经元,在培训过程中加以精细化,同时逐渐遮掩其他神经元。我们表明,我们提议的DAM方法在各种应用方面表现出色,包括减少维度、建议系统、图表展示学习和结构化的图理学。我们从理论上显示,与图像层分类目标有关的学习与LAM有关。

4
下载
关闭预览

相关内容

Discrete Applied Mathematics的目的是汇集算法和应用离散数学不同领域的研究论文,以及组合数学在信息学和科学技术各个领域的应用。发表在期刊上的文章可以是研究论文、简短笔记、调查报告,也可以是研究问题。“传播”部分将致力于尽可能快地出版最近的研究成果,这些成果由编辑委员会的一名成员检查和推荐出版。《华尔街日报》还将出版数量有限的图书公告和会议记录。这些程序将得到充分的裁决,并遵守《华尔街日报》的正常标准。官网链接:https://www.sciencedirect.com/journal/discrete-applied-mathematics/about/aims-and-scope
【SIGIR2020】学习词项区分性,Learning Term Discrimination
专知会员服务
15+阅读 · 2020年4月28日
【深度学习视频分析/多模态学习资源大列表】
专知会员服务
90+阅读 · 2019年10月16日
Keras François Chollet 《Deep Learning with Python 》, 386页pdf
专知会员服务
143+阅读 · 2019年10月12日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
无监督元学习表示学习
CreateAMind
25+阅读 · 2019年1月4日
Unsupervised Learning via Meta-Learning
CreateAMind
41+阅读 · 2019年1月3日
Facebook PyText 在 Github 上开源了
AINLP
7+阅读 · 2018年12月14日
Disentangled的假设的探讨
CreateAMind
9+阅读 · 2018年12月10日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
Hierarchical Imitation - Reinforcement Learning
CreateAMind
19+阅读 · 2018年5月25日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
读论文Discriminative Deep Metric Learning for Face and KV
统计学习与视觉计算组
12+阅读 · 2018年4月6日
条件GAN重大改进!cGANs with Projection Discriminator
CreateAMind
8+阅读 · 2018年2月7日
Arxiv
9+阅读 · 2021年10月26日
Arxiv
11+阅读 · 2021年2月17日
VIP会员
相关资讯
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
无监督元学习表示学习
CreateAMind
25+阅读 · 2019年1月4日
Unsupervised Learning via Meta-Learning
CreateAMind
41+阅读 · 2019年1月3日
Facebook PyText 在 Github 上开源了
AINLP
7+阅读 · 2018年12月14日
Disentangled的假设的探讨
CreateAMind
9+阅读 · 2018年12月10日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
Hierarchical Imitation - Reinforcement Learning
CreateAMind
19+阅读 · 2018年5月25日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
读论文Discriminative Deep Metric Learning for Face and KV
统计学习与视觉计算组
12+阅读 · 2018年4月6日
条件GAN重大改进!cGANs with Projection Discriminator
CreateAMind
8+阅读 · 2018年2月7日
Top
微信扫码咨询专知VIP会员