虽然自监督表示学习(SSL)在大型模型中已被证明是有效的,但在遵循相同的解决方案时,SSL和轻量级模型中的监督方法之间仍然存在巨大的差距。我们深入研究了这个问题,发现轻量级模型在简单地执行实例对比时,容易在语义空间中崩溃。为了解决这个问题,我们提出了一个基于关系的对比范式——关系知识蒸馏(ReKD)。我们引入一个异构教师来明确地挖掘语义信息,并将一种新的关系知识传递给学生(轻量级模型)。理论分析支持了我们对实例对比的主要关注,并验证了我们的关系对比学习的有效性。大量的实验结果也表明,我们的方法在多个轻量级模型上取得了显著的改进。特别是在AlexNet上的线性评价,将当前的技术水平从44.7%提高到50.1%,是第一个接近监督的50.5%的作品。

https://www.zhuanzhi.ai/paper/decf9fafcca546be1c73afa529536fc4

成为VIP会员查看完整内容
35

相关内容

通过潜在空间的对比损失最大限度地提高相同数据样本的不同扩充视图之间的一致性来学习表示。对比式自监督学习技术是一类很有前途的方法,它通过学习编码来构建表征,编码使两个事物相似或不同
【AAAI2022】基于对比学习的预训练语言模型剪枝压缩
专知会员服务
27+阅读 · 2022年1月24日
【AAAI2022】通过自适应聚类关系建模的无监督行人再识别
【AAAI2022】利用化学元素知识图谱进行分子对比学习
专知会员服务
27+阅读 · 2021年12月3日
专知会员服务
26+阅读 · 2021年8月13日
专知会员服务
24+阅读 · 2021年6月17日
专知会员服务
40+阅读 · 2021年5月24日
专知会员服务
44+阅读 · 2021年1月31日
AAAI2021 | 学习预训练图神经网络
专知会员服务
115+阅读 · 2021年1月28日
【AAAI2021】 层次图胶囊网络
专知会员服务
83+阅读 · 2020年12月18日
【AAAI2021】自监督对应学习的对比转换
专知
12+阅读 · 2020年12月11日
【CVPR2020】跨模态哈希的无监督知识蒸馏
专知
5+阅读 · 2020年6月25日
基于知识蒸馏的BERT模型压缩
大数据文摘
18+阅读 · 2019年10月14日
赛尔原创 | EMNLP 2019 常识信息增强的事件表示学习
哈工大SCIR
28+阅读 · 2019年9月12日
关系推理:基于表示学习和语义要素
计算机研究与发展
18+阅读 · 2017年8月22日
Arxiv
32+阅读 · 2021年3月8日
Arxiv
20+阅读 · 2019年11月23日
Explanatory Graphs for CNNs
Arxiv
4+阅读 · 2018年12月18日
Arxiv
6+阅读 · 2018年3月29日
VIP会员
相关VIP内容
【AAAI2022】基于对比学习的预训练语言模型剪枝压缩
专知会员服务
27+阅读 · 2022年1月24日
【AAAI2022】通过自适应聚类关系建模的无监督行人再识别
【AAAI2022】利用化学元素知识图谱进行分子对比学习
专知会员服务
27+阅读 · 2021年12月3日
专知会员服务
26+阅读 · 2021年8月13日
专知会员服务
24+阅读 · 2021年6月17日
专知会员服务
40+阅读 · 2021年5月24日
专知会员服务
44+阅读 · 2021年1月31日
AAAI2021 | 学习预训练图神经网络
专知会员服务
115+阅读 · 2021年1月28日
【AAAI2021】 层次图胶囊网络
专知会员服务
83+阅读 · 2020年12月18日
相关资讯
【AAAI2021】自监督对应学习的对比转换
专知
12+阅读 · 2020年12月11日
【CVPR2020】跨模态哈希的无监督知识蒸馏
专知
5+阅读 · 2020年6月25日
基于知识蒸馏的BERT模型压缩
大数据文摘
18+阅读 · 2019年10月14日
赛尔原创 | EMNLP 2019 常识信息增强的事件表示学习
哈工大SCIR
28+阅读 · 2019年9月12日
关系推理:基于表示学习和语义要素
计算机研究与发展
18+阅读 · 2017年8月22日
微信扫码咨询专知VIP会员