基于自监督学习的Bert[1]预训练模型在NLP领域大放光彩,在多项下游任务中均取得很好的效果。Bert在无标注的语料中充分地学到了通用的知识,那么很容易引出一个问题,CV领域是否也可以“复现”Bert的成功呢?近年比较火热的对比学习或许是这个问题的一个答案。

对比学习(Contrastive Learning)是自监督学习的一种,需要从无标注的图像数据中学习特征表示,并用于下游任务中。其指导原则是:通过自动构造相似实例和不相似实例,学习一个表示学习模型,通过这个模型,使得相似的实例在投影空间中比较接近,而不相似的实例在投影空间中距离比较远。本文将介绍对比学习的基本思路以及经典的MoCo系列[2][3][4]、SimCLR系列模型[5][6],了解对比学习的方法和特性。

[1] Devlin, Jacob, et al. "Bert: Pre-training of deep bidirectional transformers for language understanding." arXiv preprint arXiv:1810.04805 (2018).

[2] He, Kaiming, et al. "Momentum contrast for unsupervised visual representation learning." Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition. 2020.

[3] Chen, Xinlei, et al. "Improved baselines with momentum contrastive learning." arXiv preprint arXiv:2003.04297 (2020).

[4] Chen, Xinlei, Saining Xie, and Kaiming He. "An empirical study of training self-supervised visual transformers." arXiv preprint arXiv:2104.02057 (2021).

[5] Chen, Ting, et al. "A simple framework for contrastive learning of visual representations." International conference on machine learning. PMLR, 2020.

[6] Chen, Ting, et al. "Big self-supervised models are strong semi-supervised learners." arXiv preprint arXiv:2006.10029 (2020).

[7] Contrastive Self-Supervised Learning https://ankeshanand.com/blog/2020/01/26/contrative-self-supervised-learning.html

[8] Kingma, Diederik P., and Max Welling. "Auto-encoding variational bayes." arXiv preprint arXiv:1312.6114 (2013).

[9] Goodfellow, Ian J., et al. "Generative adversarial networks." arXiv preprint arXiv:1406.2661 (2014).

[10] Caron, Mathilde, et al. "Unsupervised learning of visual features by contrasting cluster assignments." arXiv preprint arXiv:2006.09882 (2020).

[11] Grill, Jean-Bastien, et al. "Bootstrap your own latent: A new approach to self-supervised learning." arXiv preprint arXiv:2006.07733 (2020).

[12] Chen, Xinlei, and Kaiming He. "Exploring Simple Siamese Representation Learning." arXiv preprint arXiv:2011.10566 (2020).

[13] Gao, Tianyu, Xingcheng Yao, and Danqi Chen. "SimCSE: Simple Contrastive Learning of Sentence Embeddings." arXiv preprint arXiv:2104.08821 (2021).

成为VIP会员查看完整内容
88

相关内容

通过潜在空间的对比损失最大限度地提高相同数据样本的不同扩充视图之间的一致性来学习表示。对比式自监督学习技术是一类很有前途的方法,它通过学习编码来构建表征,编码使两个事物相似或不同
专知会员服务
32+阅读 · 2021年7月27日
多模态预训练模型简述
专知会员服务
108+阅读 · 2021年4月27日
【ICLR2021】自监督蒸馏学习视觉表示
专知会员服务
33+阅读 · 2021年4月14日
专知会员服务
25+阅读 · 2021年4月13日
近期必读的六篇 ICML 2020【对比学习】相关论文
专知会员服务
56+阅读 · 2020年9月15日
专知会员服务
73+阅读 · 2020年9月1日
论文浅尝 | DeCLUTR: 无监督文本表示的深度对比学习
开放知识图谱
4+阅读 · 2020年10月4日
用 SimCLR 提高自监督与半监督学习效果
谷歌开发者
5+阅读 · 2020年5月12日
对比学习(Contrastive Learning)相关进展梳理
PaperWeekly
10+阅读 · 2020年5月12日
单语言表征如何迁移到多语言去?
AI科技评论
5+阅读 · 2019年11月21日
BERT-预训练的强大
微信AI
60+阅读 · 2019年3月7日
无监督元学习表示学习
CreateAMind
25+阅读 · 2019年1月4日
简述多种降维算法
算法与数学之美
8+阅读 · 2018年9月23日
半监督多任务学习:Semisupervised Multitask Learning
我爱读PAMI
18+阅读 · 2018年4月29日
【迁移学习】简述迁移学习在深度学习中的应用
产业智能官
15+阅读 · 2018年1月9日
Arxiv
5+阅读 · 2020年10月2日
Arxiv
19+阅读 · 2020年7月21日
Arxiv
3+阅读 · 2019年8月26日
Arxiv
4+阅读 · 2018年9月6日
VIP会员
相关主题
相关VIP内容
专知会员服务
32+阅读 · 2021年7月27日
多模态预训练模型简述
专知会员服务
108+阅读 · 2021年4月27日
【ICLR2021】自监督蒸馏学习视觉表示
专知会员服务
33+阅读 · 2021年4月14日
专知会员服务
25+阅读 · 2021年4月13日
近期必读的六篇 ICML 2020【对比学习】相关论文
专知会员服务
56+阅读 · 2020年9月15日
专知会员服务
73+阅读 · 2020年9月1日
相关资讯
论文浅尝 | DeCLUTR: 无监督文本表示的深度对比学习
开放知识图谱
4+阅读 · 2020年10月4日
用 SimCLR 提高自监督与半监督学习效果
谷歌开发者
5+阅读 · 2020年5月12日
对比学习(Contrastive Learning)相关进展梳理
PaperWeekly
10+阅读 · 2020年5月12日
单语言表征如何迁移到多语言去?
AI科技评论
5+阅读 · 2019年11月21日
BERT-预训练的强大
微信AI
60+阅读 · 2019年3月7日
无监督元学习表示学习
CreateAMind
25+阅读 · 2019年1月4日
简述多种降维算法
算法与数学之美
8+阅读 · 2018年9月23日
半监督多任务学习:Semisupervised Multitask Learning
我爱读PAMI
18+阅读 · 2018年4月29日
【迁移学习】简述迁移学习在深度学习中的应用
产业智能官
15+阅读 · 2018年1月9日
微信扫码咨询专知VIP会员