【NeurIPS2020】无限可能的联合对比学习

2020 年 10 月 2 日 专知


本文通过新的概率建模方法,对对比学习的最新发展进行了有益的改进。我们推导了一种特殊形式的对比损失,称为联合对比学习(JCL)。JCL隐含地涉及到同时学习无限数量的查询键对,这在搜索不变特征时带来了更严格的约束。我们推导了这个公式的上界,它允许以端到端训练的方式进行解析解。虽然JCL在许多计算机视觉应用程序中实际上是有效的,但我们也从理论上揭示了控制JCL行为的某些机制。我们证明,提出的公式具有一种内在的力量,强烈支持在每个实例特定类内的相似性,因此在搜索不同实例之间的区别特征时仍然具有优势。我们在多个基准上评估这些建议,证明了对现有算法的相当大的改进。代码可以通过以下网址公开获得

https://github.com/caiqi/Joint-Contrastive-Learning



专知便捷查看

便捷下载,请关注专知公众号(点击上方蓝色专知关注)

  • 后台回复“JCL” 可以获取《【NeurIPS2020】无限可能的联合对比学习》专知下载链接索引

专知,专业可信的人工智能知识分发,让认知协作更快更好!欢迎注册登录专知www.zhuanzhi.ai,获取5000+AI主题干货知识资料!
欢迎微信扫一扫加入专知人工智能知识星球群,获取最新AI专业干货知识教程资料和与专家交流咨询
点击“ 阅读原文 ”,了解使用 专知 ,查看获取5000+AI主题知识资源
登录查看更多
3

相关内容

通过潜在空间的对比损失最大限度地提高相同数据样本的不同扩充视图之间的一致性来学习表示。对比式自监督学习技术是一类很有前途的方法,它通过学习编码来构建表征,编码使两个事物相似或不同
专知会员服务
9+阅读 · 2020年11月12日
【NeurIPS2020】可靠图神经网络鲁棒聚合
专知会员服务
18+阅读 · 2020年11月6日
近期必读的七篇NeurIPS 2020【对比学习】相关论文和代码
专知会员服务
65+阅读 · 2020年10月20日
【MIT】硬负样本的对比学习
专知会员服务
39+阅读 · 2020年10月14日
【NeurIPS2020-FB】学习具有可解码信息瓶颈的最优表示
专知会员服务
22+阅读 · 2020年10月13日
【NeurIPS2020-北大】非凸优化裁剪算法的改进分析
专知会员服务
27+阅读 · 2020年10月11日
【NeurIPS2020】图网的主邻域聚合
专知会员服务
32+阅读 · 2020年9月27日
近期必读的六篇 ICML 2020【对比学习】相关论文
专知会员服务
56+阅读 · 2020年9月15日
专知会员服务
73+阅读 · 2020年9月1日
【KDD2020-阿里】可调控的多兴趣推荐框架
专知
9+阅读 · 2020年8月11日
Arxiv
0+阅读 · 2020年11月30日
Heterogeneous Deep Graph Infomax
Arxiv
12+阅读 · 2019年11月19日
Learning Embedding Adaptation for Few-Shot Learning
Arxiv
16+阅读 · 2018年12月10日
Arxiv
23+阅读 · 2018年10月1日
VIP会员
相关VIP内容
专知会员服务
9+阅读 · 2020年11月12日
【NeurIPS2020】可靠图神经网络鲁棒聚合
专知会员服务
18+阅读 · 2020年11月6日
近期必读的七篇NeurIPS 2020【对比学习】相关论文和代码
专知会员服务
65+阅读 · 2020年10月20日
【MIT】硬负样本的对比学习
专知会员服务
39+阅读 · 2020年10月14日
【NeurIPS2020-FB】学习具有可解码信息瓶颈的最优表示
专知会员服务
22+阅读 · 2020年10月13日
【NeurIPS2020-北大】非凸优化裁剪算法的改进分析
专知会员服务
27+阅读 · 2020年10月11日
【NeurIPS2020】图网的主邻域聚合
专知会员服务
32+阅读 · 2020年9月27日
近期必读的六篇 ICML 2020【对比学习】相关论文
专知会员服务
56+阅读 · 2020年9月15日
专知会员服务
73+阅读 · 2020年9月1日
Top
微信扫码咨询专知VIP会员