基于对比学习(CL)的自监督学习模型以成对的方式学习视觉表征。虽然目前流行的CL模型已经取得了很大的进展,但在本文中,我们发现了一个一直被忽视的现象:当用全图像训练CL模型时,在全图像中测试的性能比在前景区域测试的性能要好;当使用前景区域训练CL模型时,在完整图像中测试的性能比在前景区域测试的性能差。这一观察结果表明,图像中的背景可能会干扰模型学习的语义信息,其影响尚未完全消除。为了解决这个问题,我们建立了一个结构因果模型(SCM),将背景建模为一个混淆剂。我们提出了一种基于后门调整的正则化方法,即基于元语义正则化的介入性对比学习(ICLMSR),对所提出的供应链管理进行因果干预。ICL-MSR可以整合到任何现有的CL方法中,以减轻表征学习的背景干扰。从理论上证明了ICL-MSR具有更小的误差界。经验上,我们在多个基准数据集上的实验表明,ICL-MSR能够提高不同最先进的CL方法的性能。

成为VIP会员查看完整内容
20

相关内容

通过潜在空间的对比损失最大限度地提高相同数据样本的不同扩充视图之间的一致性来学习表示。对比式自监督学习技术是一类很有前途的方法,它通过学习编码来构建表征,编码使两个事物相似或不同
【ICML2022】MetAug:通过元特征增强的对比学习
专知会员服务
24+阅读 · 2022年5月20日
专知会员服务
23+阅读 · 2021年9月22日
专知会员服务
34+阅读 · 2021年8月19日
专知会员服务
74+阅读 · 2021年7月21日
专知会员服务
42+阅读 · 2021年7月1日
专知会员服务
25+阅读 · 2021年5月23日
专知会员服务
22+阅读 · 2021年3月23日
【KDD2020】 半监督迁移协同过滤推荐
专知会员服务
19+阅读 · 2020年10月21日
【ICML2022教程】智能交互式学习,80页ppt
专知
1+阅读 · 2022年7月22日
【ICML2022】几何多模态对比表示学习
专知
2+阅读 · 2022年7月17日
【CVPR2022】开放集半监督图像生成
专知
1+阅读 · 2022年5月3日
【MIT】硬负样本的对比学习
专知
13+阅读 · 2020年10月15日
国家自然科学基金
4+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
1+阅读 · 2013年12月31日
国家自然科学基金
3+阅读 · 2012年12月31日
国家自然科学基金
1+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
1+阅读 · 2012年12月31日
Arxiv
12+阅读 · 2022年4月12日
Disentangled Information Bottleneck
Arxiv
12+阅读 · 2020年12月22日
Arxiv
31+阅读 · 2020年9月21日
Heterogeneous Deep Graph Infomax
Arxiv
12+阅读 · 2019年11月19日
VIP会员
相关VIP内容
【ICML2022】MetAug:通过元特征增强的对比学习
专知会员服务
24+阅读 · 2022年5月20日
专知会员服务
23+阅读 · 2021年9月22日
专知会员服务
34+阅读 · 2021年8月19日
专知会员服务
74+阅读 · 2021年7月21日
专知会员服务
42+阅读 · 2021年7月1日
专知会员服务
25+阅读 · 2021年5月23日
专知会员服务
22+阅读 · 2021年3月23日
【KDD2020】 半监督迁移协同过滤推荐
专知会员服务
19+阅读 · 2020年10月21日
相关基金
国家自然科学基金
4+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
1+阅读 · 2013年12月31日
国家自然科学基金
3+阅读 · 2012年12月31日
国家自然科学基金
1+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
1+阅读 · 2012年12月31日
相关论文
Arxiv
12+阅读 · 2022年4月12日
Disentangled Information Bottleneck
Arxiv
12+阅读 · 2020年12月22日
Arxiv
31+阅读 · 2020年9月21日
Heterogeneous Deep Graph Infomax
Arxiv
12+阅读 · 2019年11月19日
微信扫码咨询专知VIP会员