题目: Debiased Contrastive Learning

摘要:

自监督表示学习的一项突出技术是对比语义相似和不相似的样本对。如果无法访问标签,通常会将不同的(负)点视为随机采样的数据点,隐式地接受这些点实际上可能具有相同的标签。不足为奇的是,我们观察到在具有标签的综合环境中,从真正不同的标签中抽取负面样本可以提高性能。受此观察结果的启发,开发了一种反偏差对比目标,即使不知道真实的标签,也可以校正相同标签的数据点的采样。从经验上讲,拟议的目标在视觉,语言和强化学习基准方面始终优于最新的代表性学习。从理论上讲,我们为下游分类任务建立概括边界。

成为VIP会员查看完整内容
90

相关内容

通过潜在空间的对比损失最大限度地提高相同数据样本的不同扩充视图之间的一致性来学习表示。对比式自监督学习技术是一类很有前途的方法,它通过学习编码来构建表征,编码使两个事物相似或不同
【google】监督对比学习,Supervised Contrastive Learning
专知会员服务
31+阅读 · 2020年4月23日
单语言表征如何迁移到多语言去?
AI科技评论
5+阅读 · 2019年11月21日
元学习—Meta Learning的兴起
专知
44+阅读 · 2019年10月19日
图上的归纳表示学习
科技创新与创业
23+阅读 · 2017年11月9日
深度判别和共享特征学习的图像分类
计算机视觉战队
6+阅读 · 2017年9月27日
Learning by Abstraction: The Neural State Machine
Arxiv
6+阅读 · 2019年7月11日
Learning Embedding Adaptation for Few-Shot Learning
Arxiv
16+阅读 · 2018年12月10日
Meta-Transfer Learning for Few-Shot Learning
Arxiv
8+阅读 · 2018年12月6日
VIP会员
相关资讯
单语言表征如何迁移到多语言去?
AI科技评论
5+阅读 · 2019年11月21日
元学习—Meta Learning的兴起
专知
44+阅读 · 2019年10月19日
图上的归纳表示学习
科技创新与创业
23+阅读 · 2017年11月9日
深度判别和共享特征学习的图像分类
计算机视觉战队
6+阅读 · 2017年9月27日
微信扫码咨询专知VIP会员