“累积空间知识蒸馏”(Cumulative Spatial Knowledge Distillation,CSKD)是一个深度学习中针对视觉变换器(ViTs)进行知识蒸馏的方法。CSKD的设计目标是解决从卷积神经网络(CNNs)中提取知识时所遇到的两大问题:(1) CNN和ViT网络设计完全不同,导致中间特征的语义级别不同,使得基于空间的知识传递方法(例如,特征模拟)效率低下;(2) 从CNN中提取知识会限制ViT在后期训练中的网络收敛,因为CNN的局部归纳偏见监督抑制了ViT整合全局信息的能力。 CSKD方法从CNN对应的空间响应中提取基于空间的知识,然后将其蒸馏到ViT的所有补丁令牌,而无需引入中间特征。此外,CSKD利用了累积知识融合(CKF)模块,该模块引入了CNN的全局响应,并在训练过程中逐渐强调其重要性。应用CKF在早期训练期间利用了CNN的局部归纳偏见,而在后期充分发挥了ViT的全局能力。在ImageNet-1k和下游数据集上的大量实验和分析证明了我们的CSKD方法的优越性。代码将公开发布。

成为VIP会员查看完整内容
36

相关内容

【KDD2023】分布外图学习
专知会员服务
30+阅读 · 2023年8月17日
【NeurIPS2022】扩散视觉反事实解释
专知会员服务
23+阅读 · 2022年10月24日
【ICML2022】可达性约束强化学习
专知会员服务
22+阅读 · 2022年5月18日
【WWW2022】再思考图卷积网络的知识图谱补全
专知会员服务
33+阅读 · 2022年2月15日
IEEE TPAMI | 基于标注偏差估计的实例相关PU学习
专知会员服务
11+阅读 · 2021年10月23日
专知会员服务
35+阅读 · 2021年7月9日
专知会员服务
27+阅读 · 2021年5月24日
【WWW2021】本体增强零样本学习
专知会员服务
32+阅读 · 2021年2月26日
【AAAI2023】基于序图的因果结构强化学习
专知
4+阅读 · 2022年11月25日
【NeurIPS2019】图变换网络:Graph Transformer Network
NAACL 2019 | 一种考虑缓和KL消失的简单VAE训练方法
PaperWeekly
20+阅读 · 2019年4月24日
997篇-历史最全生成对抗网络(GAN)论文串烧
深度学习与NLP
16+阅读 · 2018年6月26日
国家自然科学基金
0+阅读 · 2017年12月31日
国家自然科学基金
11+阅读 · 2017年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
7+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
41+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
Arxiv
0+阅读 · 2023年9月8日
A Survey of Large Language Models
Arxiv
408+阅读 · 2023年3月31日
Arxiv
10+阅读 · 2021年2月26日
Arxiv
19+阅读 · 2021年2月4日
Heterogeneous Deep Graph Infomax
Arxiv
12+阅读 · 2019年11月19日
Deep Face Recognition: A Survey
Arxiv
18+阅读 · 2019年2月12日
VIP会员
相关VIP内容
【KDD2023】分布外图学习
专知会员服务
30+阅读 · 2023年8月17日
【NeurIPS2022】扩散视觉反事实解释
专知会员服务
23+阅读 · 2022年10月24日
【ICML2022】可达性约束强化学习
专知会员服务
22+阅读 · 2022年5月18日
【WWW2022】再思考图卷积网络的知识图谱补全
专知会员服务
33+阅读 · 2022年2月15日
IEEE TPAMI | 基于标注偏差估计的实例相关PU学习
专知会员服务
11+阅读 · 2021年10月23日
专知会员服务
35+阅读 · 2021年7月9日
专知会员服务
27+阅读 · 2021年5月24日
【WWW2021】本体增强零样本学习
专知会员服务
32+阅读 · 2021年2月26日
相关基金
国家自然科学基金
0+阅读 · 2017年12月31日
国家自然科学基金
11+阅读 · 2017年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
7+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
41+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
相关论文
Arxiv
0+阅读 · 2023年9月8日
A Survey of Large Language Models
Arxiv
408+阅读 · 2023年3月31日
Arxiv
10+阅读 · 2021年2月26日
Arxiv
19+阅读 · 2021年2月4日
Heterogeneous Deep Graph Infomax
Arxiv
12+阅读 · 2019年11月19日
Deep Face Recognition: A Survey
Arxiv
18+阅读 · 2019年2月12日
微信扫码咨询专知VIP会员