ICLR 2022 | 曾被NeurIPS拒绝!LeCun团队提出VICReg:自监督学习新工作

2022 年 2 月 20 日 CVer

点击下方卡片,关注“CVer”公众号

AI/CV重磅干货,第一时间送达

转载自:机器之心  |  编辑:张倩、小舟

NeurIPS 2021 双盲评审之下,图灵奖得主的论文也会被拒。不过前段时间,该论文已被ICLR 2022收录。



去年,全球人工智能顶会 NeurIPS 2021 放出了论文接收结果。正所谓有人欢喜有人忧,但也有人处于「欢喜」和「忧愁」之外的另一种状态——被拒绝之后的「proud」。

这位拥有独特心境的研究者便是大名鼎鼎的 Facebook 首席 AI 科学家、2018 年图灵奖得主 Yann LeCun。


NeurIPS 2021拒绝的论文标题为《VICReg: Variance-Invariance-Covariance Regularization for Self-Supervised Learning 》。LeCun 表示,在这篇论文中,他们提出了一种极其简单、高效的方法,用于联合嵌入(joint-embedding)架构的自监督训练。


VICReg 论文链接:https://arxiv.org/pdf/2105.04906.pdf

NeurIPS 2021领域主席给出的拒稿理由是:与 LeCun 等人之前发表于 ICML 2021 上的「Barlow Twins」论文相比,这篇「VICReg」提出的改进还不够大。


Barlow Twins 论文链接:https://arxiv.org/pdf/2103.03230.pdf

但 LeCun 似乎并不这么认为,他表示,VICReg 引入了方差正则化,这使得它适用于更广泛的架构。


因此,在 LeCun 看来,他们的论文有足够的创新之处,被拒绝并不是什么丢人的事。「一些最具影响力的论文被拒绝过多次,比如 David Lowe 著名的 SIFT,」LeCun 在 twitter 上写道。


对于「不要放弃」之类的鼓励,LeCun 给出的回应是:「我的整个职业生涯都是基于『不放弃』的,现在也不会改变。」对于 LeCun 这种连「AI 寒冬」都经历过的人,个别研究不被肯定又算得了什么。


不过,对于普通研究者来说,LeCun 论文被拒让人看到了顶会审稿机制透明的一面:看来双盲评审还是有一定公平性的。


而且,审稿结果似乎并没有被网络上的宣传所左右:该论文今年 5 月份就出现在了 arXiv 上,而且 LeCun 发表推特进行了宣传。在 LeCun 看来,这是一种正常的学术信息交流,有利于技术进步。但不可忽略的一点是:在各种「交流」渠道中,不同地位的研究者所占有的资源是非常悬殊的,这难免造成一些不公平,让本身就很有学术号召力的研究者从中获益。

不过,具体到「VICReg」这篇论文是否应该被接收,我们还是要看一下论文的具体内容。

「 VICReg 」是个什么方法

自监督表征学习在过去几年取得了重大进展,在许多下游任务上几乎达到了监督学习方法的性能。虽然可以显式地防止崩溃(collapse),但许多方法都存在成本高昂的问题,需要大量内存和较大的批大小。

还有一些方法虽然有效,但是依赖于难以解释的架构技巧。已有一些研究提供了关于如何通过非对称方法避免崩溃的理论分析,但还远不完备,并且这些方法可能不适用于其他自监督学习场景。最后,冗余减少(redundancy reduction)的方法通过对表征的维度进行去相关(decorrelate)操作来避免崩溃,从而使表征能够最大限度地提供有关其相应输入的信息。这些方法的性能良好,能够学习有意义的表征,在去相关的同时保留表征的方差,但所有这些都使用一个唯一的目标函数。VICReg 的研究提出将目标分解为三个独立的目标函数,且每个目标函数都有明确的解释。

在这篇论文中,研究者提出了一种新的自监督算法——VICReg(Variance-Invariance-Covariance Regularization,方差 - 不变性 - 协方差正则化),用于学习基于三个简单 principle(方差、不变性和协方差)的图像表征,这些 principle 有明确的目标和解释。


方差 principle 独立地约束每个维度上嵌入的方差,是一种简单而有效的防止崩溃的方法。更准确地说,研究者使用 hinge loss 来约束沿嵌入的批维度计算的标准差,以达到固定目标。与对比方法不同,这里不需要 negative pair,嵌入被隐式地鼓励不同于彼此,而且它们之间没有任何直接的比较。

不变性 principle 使用标准的均方欧氏距离来学习对一张图像多个视图的不变性。

最后,协方差 principle 借鉴了 Barlow Twins 的协方差 criterion,后者将学习表征的不同维度去相关,目标是在维度之间传播信息,避免维度崩溃。这个 criterion 主要是惩罚嵌入的协方差矩阵的非对角系数。

在 SimCLR 中,negative pair 由批给出,这意味着该方法严重依赖于批大小。而 VICReg 则没有这种依赖性。与 Barlow Twin 类似,VICReg 也不需要 siamese 权重差异。此外,VICReg 架构是对称的,并且无需 SimSiam 的停止梯度(stop-gradient)操作、BYOL 的动量编码器(momentum encoder)以及二者均用到的预测器。与之前用于表征学习的任何自监督方法都不同,VICReg 的损失函数中不需要对嵌入进行任何形式的归一化,这使得该方法相对简单。

实验结果

在很多下游任务中,研究者通过评估 VICReg 方法学到的表征来测试其有效性。这些任务包括:ImageNet 线性和半监督评估以及其他一些分类、检测和实例分割任务。他们进一步表明,在更复杂的架构和其他自监督表征学习方法中加入文中提出的方差正则化,可以更好地提高下游任务的训练稳定性和性能。可以说,VICReg 是自监督联合嵌入学习中防止崩塌的一种简单、有效的可解释方法。

图 1:在 ImageNet 上的评估结果。

图 2:在下游任务上的迁移学习结果。

图 3:在不同架构中加入方差和协方差正则化的效果。

图 4:消融研究结果。

前段时间,Amusi 发现 VICReg 工作已被 ICLR 2022 收!用实践证明了『不放弃』的重要性。

ICCV和CVPR 2021论文和代码下载


后台回复:CVPR2021,即可下载CVPR 2021论文和代码开源的论文合集

后台回复:ICCV2021,即可下载ICCV 2021论文和代码开源的论文合集

后台回复:Transformer综述,即可下载最新的3篇Transformer综述PDF


CVer-Transformer交流群成立


扫码添加CVer助手,可申请加入CVer-Transformer 微信交流群,方向已涵盖:目标检测、图像分割、目标跟踪、人脸检测&识别、OCR、姿态估计、超分辨率、SLAM、医疗影像、Re-ID、GAN、NAS、深度估计、自动驾驶、强化学习、车道线检测、模型剪枝&压缩、去噪、去雾、去雨、风格迁移、遥感图像、行为识别、视频理解、图像融合、图像检索、论文投稿&交流、PyTorch和TensorFlow等群。


一定要备注:研究方向+地点+学校/公司+昵称(如Transformer+上海+上交+卡卡),根据格式备注,可更快被通过且邀请进群


▲长按加小助手微信,进交流群


CVer学术交流群(知识星球)来了!想要了解最新最快最好的CV/DL/ML论文速递、优质开源项目、学习教程和实战训练等资料,欢迎扫描下方二维码,加入CVer学术交流群,已汇集数千人!


扫码进群

▲点击上方卡片,关注CVer公众号

整理不易,请点赞和在看

登录查看更多
1

相关内容

ICLR 2022接受论文列表出炉!1095 篇论文都在这了!
专知会员服务
75+阅读 · 2022年1月30日
ICLR 2022 评审出炉!来看看得分最高8份的31篇论文是什么!
NeurIPS 20201接收论文列表发布,2334篇论文都在这了!
专知会员服务
37+阅读 · 2021年11月4日
ICCV2021接受论文!
专知会员服务
26+阅读 · 2021年7月23日
ICLR 2021 评审出炉!来看看得分最高的50篇论文是什么!
专知会员服务
40+阅读 · 2020年11月13日
【2020 最新论文】对比学习中什么应该不是对比的?
专知会员服务
38+阅读 · 2020年8月16日
怼完OpenAI,LeCun回应:我认为意识只是一种错觉
机器之心
0+阅读 · 2022年2月23日
图灵奖大佬 Lecun 发表对比学习新作,比 SimCLR 更好用!
夕小瑶的卖萌屋
0+阅读 · 2021年11月17日
Reddit最火!55页博士笔记总结ICLR 2019大会干货
新智元
29+阅读 · 2019年5月11日
国家自然科学基金
15+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
5+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
2+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
Max-Margin Contrastive Learning
Arxiv
18+阅读 · 2021年12月21日
Multi-Domain Multi-Task Rehearsal for Lifelong Learning
Arxiv
12+阅读 · 2020年12月14日
Arxiv
35+阅读 · 2020年1月2日
VIP会员
相关VIP内容
ICLR 2022接受论文列表出炉!1095 篇论文都在这了!
专知会员服务
75+阅读 · 2022年1月30日
ICLR 2022 评审出炉!来看看得分最高8份的31篇论文是什么!
NeurIPS 20201接收论文列表发布,2334篇论文都在这了!
专知会员服务
37+阅读 · 2021年11月4日
ICCV2021接受论文!
专知会员服务
26+阅读 · 2021年7月23日
ICLR 2021 评审出炉!来看看得分最高的50篇论文是什么!
专知会员服务
40+阅读 · 2020年11月13日
【2020 最新论文】对比学习中什么应该不是对比的?
专知会员服务
38+阅读 · 2020年8月16日
相关基金
国家自然科学基金
15+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
5+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
2+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
Top
微信扫码咨询专知VIP会员