Contrastive learning (CL) has achieved remarkable success in learning transferable representations. It has been identified that the temperature $ \tau $ of CL loss plays an essential role in automatically concentrating on hard negative samples. However, recent work also indicates a uniformity-tolerance dilemma (UTD) connected to $ \tau $, which will lead to unexpected performance degradation. We argue that it is the fixity of temperature that is inextricably linked to UTD and suboptimal embedding space. To tackle the challenge of UTD, we enrich the CL loss family by presenting a Model-Aware Contrastive Learning (MACL) strategy. In MACL, the temperature parameter is adaptive to the magnitude of alignment that reflects the basic confidence of the instance discrimination task. Lower alignment implies poor discrimination for the undertrained phase, then there is less possibility that the high similarity region contains latent positive samples (LPs). Thus, a small $ \tau $ can impose larger penalties on hard negative samples to learn uniformly informative embeddings. Instead, a larger $ \tau $ in the well-trained phase facilitates the exploration of semantic structures due to its increased tolerance for LPs. Besides, theoretically, we uncover why contrastive learning requires a large number of negative samples from a unified gradient reduction perspective. Based on MACL and these analyses, a new CL loss is proposed. Experimental results validate the effectiveness of our approach to escape UTD, which can achieve state-of-the-art performance and training with fewer negative samples.


翻译:对比学习(CL)在学习可转移的表达方式方面取得了显著成功。 已经发现CL损失的温度 $ $ tau 值在自动集中到硬性负抽样方面起着关键作用。 但是,最近的工作还表明,与$ $ 相连接的统一容忍困境(UTD) 与 $ tau 美元相关,这会导致意想不到的性能退化。 我们认为,与UTD和不理想的嵌入空间有着不可分的联系的正是温度固定性。为了应对UTD的挑战,我们通过推出示范-意识反向学习(MACL)战略来丰富CL损失家庭。在MACL 中,温度样本的温度参数适应于反映实例歧视任务基本信心的匹配程度。 更低的校准意味着低的阶段歧视,因此更低的类似性能区域含有潜在的正样(LPs) 。 因此, 小 $ $ 就能对硬性样本施加更大的惩罚来学习一致的嵌入。 相反, 在一个经过良好训练的阶段, 更大的 $ tau $, 有助于 探索反映 递增的CL 度 度 度 的递增 度 度 校准 校正级 的 校准 校准 校准 校准, 校准 校准 的 校准 校准 校准 校准 校验 校验 校验 校验 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 制 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校 校

0
下载
关闭预览

相关内容

专知会员服务
50+阅读 · 2020年12月14日
专知会员服务
44+阅读 · 2020年10月31日
100+篇《自监督学习(Self-Supervised Learning)》论文最新合集
专知会员服务
164+阅读 · 2020年3月18日
专知会员服务
161+阅读 · 2020年1月16日
强化学习最新教程,17页pdf
专知会员服务
174+阅读 · 2019年10月11日
【哈佛大学商学院课程Fall 2019】机器学习可解释性
专知会员服务
103+阅读 · 2019年10月9日
AIART 2022 Call for Papers
CCF多媒体专委会
1+阅读 · 2022年2月13日
【ICIG2021】Latest News & Announcements of the Workshop
中国图象图形学学会CSIG
0+阅读 · 2021年12月20日
【ICIG2021】Check out the hot new trailer of ICIG2021 Symposium6
中国图象图形学学会CSIG
2+阅读 · 2021年11月12日
【ICIG2021】Check out the hot new trailer of ICIG2021 Symposium3
中国图象图形学学会CSIG
0+阅读 · 2021年11月9日
【ICIG2021】Check out the hot new trailer of ICIG2021 Symposium1
中国图象图形学学会CSIG
0+阅读 · 2021年11月3日
【ICIG2021】Latest News & Announcements of the Plenary Talk2
中国图象图形学学会CSIG
0+阅读 · 2021年11月2日
【ICIG2021】Latest News & Announcements of the Plenary Talk1
中国图象图形学学会CSIG
0+阅读 · 2021年11月1日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
28+阅读 · 2019年5月18日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
1+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
Arxiv
0+阅读 · 2022年10月3日
Arxiv
31+阅读 · 2021年3月29日
VIP会员
相关资讯
AIART 2022 Call for Papers
CCF多媒体专委会
1+阅读 · 2022年2月13日
【ICIG2021】Latest News & Announcements of the Workshop
中国图象图形学学会CSIG
0+阅读 · 2021年12月20日
【ICIG2021】Check out the hot new trailer of ICIG2021 Symposium6
中国图象图形学学会CSIG
2+阅读 · 2021年11月12日
【ICIG2021】Check out the hot new trailer of ICIG2021 Symposium3
中国图象图形学学会CSIG
0+阅读 · 2021年11月9日
【ICIG2021】Check out the hot new trailer of ICIG2021 Symposium1
中国图象图形学学会CSIG
0+阅读 · 2021年11月3日
【ICIG2021】Latest News & Announcements of the Plenary Talk2
中国图象图形学学会CSIG
0+阅读 · 2021年11月2日
【ICIG2021】Latest News & Announcements of the Plenary Talk1
中国图象图形学学会CSIG
0+阅读 · 2021年11月1日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
28+阅读 · 2019年5月18日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
相关基金
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
1+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
Top
微信扫码咨询专知VIP会员