当前的大多数自监督表示学习 (SSL) 方法都基于对比损失和实例判别任务,即其中同一图像实例的数据增强版本(“正样本”)与从其他图像中提取的实例(“负样本”)进行对比。为了保证学习有效,应将许多负样本与正样本对进行比较,这在计算上要求很高。在本文中,我们为SSL提出了一个不同的方向和一个新的损失函数,它基于对隐空间特征的白化操作,且只需要正样本对,无需负样本对的训练。白化操作对批量样本具有“散射”效应,避免只用正样本时所有样本表示收敛到单个点的退化解。同时,和先前无需负样本的SSL相比,所提方法不需要非对称网络,并且在概念上也很简单。

本篇论文的贡献有:

1.本文提出了一种新的SSL损失函数,Whitening MSE (W-MSE)。W-MSE 将批量样本限制在球形分布中,它是对比损失的替代方法。 2.所提的损失函数不需要大量的负样本,因此我们可以在当前批次中包含更多的正样本对。同时,论文实验证明了从一张图像中提取的多个正样本对可提高了模型性能。 3.通过相关实验验证了W-MSE的在各个任务上的有效性。

https://www.zhuanzhi.ai/paper/9c729151ab1b8c390da98df4caae91f5

成为VIP会员查看完整内容
21

相关内容

专知会员服务
39+阅读 · 2021年8月12日
专知会员服务
16+阅读 · 2021年8月6日
专知会员服务
28+阅读 · 2021年7月19日
专知会员服务
36+阅读 · 2021年7月17日
专知会员服务
16+阅读 · 2021年7月13日
专知会员服务
21+阅读 · 2021年6月28日
专知会员服务
24+阅读 · 2021年6月17日
专知会员服务
80+阅读 · 2021年5月10日
专知会员服务
22+阅读 · 2021年3月23日
【WWW2021】少样本图学习分子性质预测
专知会员服务
35+阅读 · 2021年2月20日
计算机视觉中的自监督表示学习近期进展
PaperWeekly
9+阅读 · 2020年10月5日
视觉与听觉相结合的深度跨域情绪识别
PaperWeekly
6+阅读 · 2020年4月24日
【综述】迁移自适应学习十年进展
专知
41+阅读 · 2019年11月26日
样本贡献不均:Focal Loss和 Gradient Harmonizing Mechanism
如何训练你的ResNet(三):正则化
论智
5+阅读 · 2018年11月13日
Arxiv
4+阅读 · 2019年11月25日
Arxiv
11+阅读 · 2018年1月18日
VIP会员
相关VIP内容
专知会员服务
39+阅读 · 2021年8月12日
专知会员服务
16+阅读 · 2021年8月6日
专知会员服务
28+阅读 · 2021年7月19日
专知会员服务
36+阅读 · 2021年7月17日
专知会员服务
16+阅读 · 2021年7月13日
专知会员服务
21+阅读 · 2021年6月28日
专知会员服务
24+阅读 · 2021年6月17日
专知会员服务
80+阅读 · 2021年5月10日
专知会员服务
22+阅读 · 2021年3月23日
【WWW2021】少样本图学习分子性质预测
专知会员服务
35+阅读 · 2021年2月20日
相关资讯
微信扫码咨询专知VIP会员