神经网络压缩技术,如知识蒸馏(KD)和网络剪枝,已日益受到关注。最近的工作“先剪枝,再蒸馏”揭示了一个被剪枝过的对学生友好的教师网络可以提高KD的性能。然而,传统的教师-学生流程,需要对教师进行繁琐的预训练和复杂的压缩步骤,使得结合KD的剪枝效率较低。除了压缩模型,最近的压缩技术也强调效率方面。早期剪枝与传统剪枝方法相比,需要的计算成本显著较低,因为它不需要一个大的预训练模型。同样,KD的一个特殊情况,称为自蒸馏(SD),更为高效,因为它不需要预训练或学生-教师对的选择。这激发了我们将早期剪枝与SD结合起来进行高效模型压缩的想法。在这项工作中,我们提出了一个名为早期剪枝与自我蒸馏(EPSD)的框架,该框架在给定的SD任务中识别并保留早期剪枝的可蒸馏权重。EPSD有效地将早期剪枝和自我蒸馏结合在一个两步过程中,保持了剪枝网络的可训练性以进行压缩。EPSD不是简单地组合剪枝和SD,而是通过在训练前保留更多可蒸馏的权重使剪枝网络更倾向于SD,以确保更好的剪枝网络蒸馏。我们证明EPSD改进了剪枝网络的训练,通过视觉和定量分析得到支持。我们的评估涵盖了多样的基准(CIFAR-10/100, Tiny-ImageNet, 全尺寸ImageNet, CUB-200-2011和Pascal VOC),EPSD的表现超过了先进的剪枝和SD技术。

成为VIP会员查看完整内容
22

相关内容

【AAAI2024】公平感知的Transformer模型结构剪枝
专知会员服务
42+阅读 · 2023年12月27日
【NeurIPS2023】基于频域的数据集蒸馏
专知会员服务
23+阅读 · 2023年11月16日
【NeurIPS2023】PAXION:在视频-语言基础模型中修补动作知识
【KDD2023】发现动态因果空间进行DAG结构学习
专知会员服务
32+阅读 · 2023年6月9日
【NeurIPS2022】GENIE:高阶去噪扩散求解器
专知会员服务
17+阅读 · 2022年11月13日
【KDD2022】基于对抗性知识蒸馏的深度图神经网络压缩
专知会员服务
23+阅读 · 2022年6月10日
专知会员服务
27+阅读 · 2021年6月18日
【AAAI2021】“可瘦身”的生成式对抗网络
专知会员服务
12+阅读 · 2020年12月12日
【NeurIPS2019】图变换网络:Graph Transformer Network
关于GANs在医学图像领域应用的总结
人工智能前沿讲习班
31+阅读 · 2019年6月4日
国家自然科学基金
2+阅读 · 2016年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
3+阅读 · 2014年12月31日
Arxiv
158+阅读 · 2023年4月20日
A Survey of Large Language Models
Arxiv
408+阅读 · 2023年3月31日
Arxiv
68+阅读 · 2023年3月26日
Arxiv
21+阅读 · 2023年3月17日
VIP会员
相关VIP内容
【AAAI2024】公平感知的Transformer模型结构剪枝
专知会员服务
42+阅读 · 2023年12月27日
【NeurIPS2023】基于频域的数据集蒸馏
专知会员服务
23+阅读 · 2023年11月16日
【NeurIPS2023】PAXION:在视频-语言基础模型中修补动作知识
【KDD2023】发现动态因果空间进行DAG结构学习
专知会员服务
32+阅读 · 2023年6月9日
【NeurIPS2022】GENIE:高阶去噪扩散求解器
专知会员服务
17+阅读 · 2022年11月13日
【KDD2022】基于对抗性知识蒸馏的深度图神经网络压缩
专知会员服务
23+阅读 · 2022年6月10日
专知会员服务
27+阅读 · 2021年6月18日
【AAAI2021】“可瘦身”的生成式对抗网络
专知会员服务
12+阅读 · 2020年12月12日
相关基金
国家自然科学基金
2+阅读 · 2016年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
3+阅读 · 2014年12月31日
微信扫码咨询专知VIP会员