自监督学习(SSL)在视觉表示学习方面取得了显著进展。一些研究将SSL与知识蒸馏(SSL- KD)相结合,以提高小型模型的表示学习性能。本文提出一种多模态在线知识蒸馏方法(MOKD)来增强自监督视觉表示学习。与现有的SSL-KD方法将知识从静态的预训练教师迁移到学生不同,在MOKD中,两个不同的模型以自监督方式进行协作学习。具体而言,MOKD由两种蒸馏模式组成:自蒸馏模式和交叉蒸馏模式。其中,自蒸馏独立地对每个模型进行自监督学习,而交叉蒸馏实现不同模型之间的知识交互。在交叉蒸馏中,提出一种交叉注意力特征搜索策略,以增强不同模型之间的语义特征对齐。因此,两个模型可以相互吸收知识以提高其表示学习性能。在不同的主干和数据集上的广泛实验结果表明,两个异构模型可以从MOKD中受益,并优于其独立训练的基线。此外,MOKD也优于现有的SSL-KD方法在学生模型和教师模型。

https://www.zhuanzhi.ai/paper/6589b817e4f5f6365ba27bc85aac2ae4

成为VIP会员查看完整内容
40

相关内容

CVPR 2023大会将于 6 月 18 日至 22 日在温哥华会议中心举行。CVPR是IEEE Conference on Computer Vision and Pattern Recognition的缩写,即IEEE国际计算机视觉与模式识别会议。该会议是由IEEE举办的计算机视觉和模式识别领域的顶级会议,会议的主要内容是计算机视觉与模式识别技术。 CVPR 2023 共收到 9155 份提交,比去年增加了 12%,创下新纪录,今年接收了 2360 篇论文,接收率为 25.78%。作为对比,去年有 8100 多篇有效投稿,大会接收了 2067 篇,接收率为 25%。
【NeurIPS2022】基于结构聚类的自监督异构图预训练
专知会员服务
23+阅读 · 2022年10月20日
【CVPR2022】提示分布学习
专知会员服务
29+阅读 · 2022年5月17日
【CVPR2022】基于知识蒸馏的高效预训练
专知会员服务
31+阅读 · 2022年4月23日
【CVPR2022】UniVIP:自监督视觉预训练的统一框架
专知会员服务
27+阅读 · 2022年3月16日
专知会员服务
26+阅读 · 2021年8月13日
专知会员服务
38+阅读 · 2021年5月16日
专知会员服务
63+阅读 · 2021年4月11日
【CVPR2021】基于端到端预训练的视觉-语言表征学习
专知会员服务
37+阅读 · 2021年4月9日
【ICML2022】时序自监督视频transformer
专知
1+阅读 · 2022年7月28日
国家自然科学基金
1+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
2+阅读 · 2013年12月31日
国家自然科学基金
2+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
2+阅读 · 2012年12月31日
国家自然科学基金
2+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
1+阅读 · 2009年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
Arxiv
17+阅读 · 2021年2月15日
Arxiv
21+阅读 · 2020年10月11日
Arxiv
10+阅读 · 2017年7月4日
VIP会员
相关VIP内容
【NeurIPS2022】基于结构聚类的自监督异构图预训练
专知会员服务
23+阅读 · 2022年10月20日
【CVPR2022】提示分布学习
专知会员服务
29+阅读 · 2022年5月17日
【CVPR2022】基于知识蒸馏的高效预训练
专知会员服务
31+阅读 · 2022年4月23日
【CVPR2022】UniVIP:自监督视觉预训练的统一框架
专知会员服务
27+阅读 · 2022年3月16日
专知会员服务
26+阅读 · 2021年8月13日
专知会员服务
38+阅读 · 2021年5月16日
专知会员服务
63+阅读 · 2021年4月11日
【CVPR2021】基于端到端预训练的视觉-语言表征学习
专知会员服务
37+阅读 · 2021年4月9日
相关基金
国家自然科学基金
1+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
2+阅读 · 2013年12月31日
国家自然科学基金
2+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
2+阅读 · 2012年12月31日
国家自然科学基金
2+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
1+阅读 · 2009年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
微信扫码咨询专知VIP会员