Self-supervised learning (especially contrastive learning) has attracted great interest due to its huge potential in learning discriminative representations in an unsupervised manner. Despite the acknowledged successes, existing contrastive learning methods suffer from very low learning efficiency, e.g., taking about ten times more training epochs than supervised learning for comparable recognition accuracy. In this paper, we reveal two contradictory phenomena in contrastive learning that we call under-clustering and over-clustering problems, which are major obstacles to learning efficiency. Under-clustering means that the model cannot efficiently learn to discover the dissimilarity between inter-class samples when the negative sample pairs for contrastive learning are insufficient to differentiate all the actual object classes. Over-clustering implies that the model cannot efficiently learn features from excessive negative sample pairs, forcing the model to over-cluster samples of the same actual classes into different clusters. To simultaneously overcome these two problems, we propose a novel self-supervised learning framework using a truncated triplet loss. Precisely, we employ a triplet loss tending to maximize the relative distance between the positive pair and negative pairs to address the under-clustering problem; and we construct the negative pair by selecting a negative sample deputy from all negative samples to avoid the over-clustering problem, guaranteed by the Bernoulli Distribution model. We extensively evaluate our framework in several large-scale benchmarks (e.g., ImageNet, SYSU-30k, and COCO). The results demonstrate our model's superiority (e.g., the learning efficiency) over the latest state-of-the-art methods by a clear margin. Codes available at: https://github.com/wanggrun/triplet .


翻译:自我监督的学习(尤其是对比式学习)由于在以不受监督的方式学习歧视性表现方面的巨大潜力而引起了极大的兴趣。尽管取得了公认的成功,但现有的对比式学习方法却因学习效率非常低而受到影响,例如,比受监督的学习高出大约10倍于受监督的学习,以获得可比的认知准确性。在本文中,我们揭示了两个自相矛盾的现象,即我们称之为集群不足和集群过多的问题,这是学习效率的主要障碍。分组不足意味着模型无法有效地学会发现类间样本之间的差异性差,而用于对比式学习的负比对不足以区分所有实际对象类别。过度集中化意味着模型无法有效地从过多的负比对样本中学习特征,迫使模型将同一实际类别中的超组抽样分成不同的组。为了克服这两个问题,我们提议了一个全新的自我超超标的学习框架,使用一个明显的模型三重损失。 准确地说,我们采用了三重损失状态, 以尽量扩大正对正对和负对子的基底基比值基准之间的距离, 我们从一个负基数的模型到一个底基质的基质的基质的模型上, 通过选择一个底的基质的模型问题, 。我们从一个底的模型到一个反基底的基团问题, 建立一个基数的基数的基数的基数的模型,我们用的模型,通过一个反基底的基底的底的底的底的底的模型, 建立一个基体的模型, 建立一个基体的模型,通过一个基体的底的基体的模型, 建立起来的模型,通过一个基体化的基体化的基体的模型,通过一个基体的模型, 建立一个基体积的底的基体积的模型,通过一个基的模型, 建立一个基体积的模型,通过一个基的模型,通过一个基的模型,通过一个基的模型,通过一个基的模型, 的模型,通过一个基体化的模型的模型的模型的模型的模型, 的模型, 来进行到一个新的的模型的模型的模型的模型的模型的模型的模型的模型的模型的模型的模型的模型的模型的模型的模型的模型的模型的模型的模型的模型的模型的模型的模型的模型的模型的模型的

0
下载
关闭预览

相关内容

专知会员服务
88+阅读 · 2021年6月29日
【MIT】反偏差对比学习,Debiased Contrastive Learning
专知会员服务
90+阅读 · 2020年7月4日
100+篇《自监督学习(Self-Supervised Learning)》论文最新合集
专知会员服务
161+阅读 · 2020年3月18日
专知会员服务
53+阅读 · 2019年12月22日
Transferring Knowledge across Learning Processes
CreateAMind
25+阅读 · 2019年5月18日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
无监督元学习表示学习
CreateAMind
25+阅读 · 2019年1月4日
Unsupervised Learning via Meta-Learning
CreateAMind
41+阅读 · 2019年1月3日
已删除
将门创投
8+阅读 · 2018年10月31日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
Hierarchical Imitation - Reinforcement Learning
CreateAMind
19+阅读 · 2018年5月25日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
Arxiv
5+阅读 · 2020年10月2日
Arxiv
9+阅读 · 2018年3月28日
VIP会员
相关资讯
Transferring Knowledge across Learning Processes
CreateAMind
25+阅读 · 2019年5月18日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
无监督元学习表示学习
CreateAMind
25+阅读 · 2019年1月4日
Unsupervised Learning via Meta-Learning
CreateAMind
41+阅读 · 2019年1月3日
已删除
将门创投
8+阅读 · 2018年10月31日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
Hierarchical Imitation - Reinforcement Learning
CreateAMind
19+阅读 · 2018年5月25日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
Top
微信扫码咨询专知VIP会员