最近的自监督对比方法已经能够产生令人印象深刻的可转移的视觉表示通过学习对不同的数据增强保持不变。然而,这些方法隐式地假设了一组特定的表示不变性(例如,颜色不变性),并且当下游任务违反了这一假设时,它们的性能会很差(比如区分红色和黄色的汽车)。我们介绍了一个对比学习框架,它不需要特定的、任务相关的不变性的先验知识。我们的模型学会了通过构建单独的嵌入空间来捕捉变化的和不变的视觉表示因素,每个嵌入空间都是不变的,除了数据增强部分。我们使用一个共享主干的多头网络,它在每次扩展中捕获信息,单独在下游任务上优于所有基线方法。我们还发现,不变空间和变化空间的连接在我们研究的所有任务中性能最好,包括粗粒度、细粒度和较少的下游分类任务,以及各种数据破坏的情况下。

成为VIP会员查看完整内容
38

相关内容

通过潜在空间的对比损失最大限度地提高相同数据样本的不同扩充视图之间的一致性来学习表示。对比式自监督学习技术是一类很有前途的方法,它通过学习编码来构建表征,编码使两个事物相似或不同
【MIT】硬负样本的对比学习
专知会员服务
39+阅读 · 2020年10月14日
近期必读的六篇 ICML 2020【对比学习】相关论文
专知会员服务
56+阅读 · 2020年9月15日
专知会员服务
74+阅读 · 2020年9月1日
【KDD2020-清华大学】图对比编码的图神经网络预训练
专知会员服务
44+阅读 · 2020年6月18日
对比自监督学习
深度学习自然语言处理
34+阅读 · 2020年7月15日
论文荐读:理解图表示学习中的负采样
学术头条
29+阅读 · 2020年5月29日
赛尔笔记 | 自然语言处理中的迁移学习(下)
AI科技评论
11+阅读 · 2019年10月21日
胶囊网络,是什么?
人工智能头条
32+阅读 · 2019年1月2日
【干货】一文读懂什么是变分自编码器
专知
12+阅读 · 2018年2月11日
Continual Unsupervised Representation Learning
Arxiv
7+阅读 · 2019年10月31日
Explanatory Graphs for CNNs
Arxiv
4+阅读 · 2018年12月18日
Arxiv
12+阅读 · 2018年9月15日
Arxiv
3+阅读 · 2018年5月20日
VIP会员
相关资讯
对比自监督学习
深度学习自然语言处理
34+阅读 · 2020年7月15日
论文荐读:理解图表示学习中的负采样
学术头条
29+阅读 · 2020年5月29日
赛尔笔记 | 自然语言处理中的迁移学习(下)
AI科技评论
11+阅读 · 2019年10月21日
胶囊网络,是什么?
人工智能头条
32+阅读 · 2019年1月2日
【干货】一文读懂什么是变分自编码器
专知
12+阅读 · 2018年2月11日
相关论文
微信扫码咨询专知VIP会员