Learning effective visual representations that generalize well without human supervision is a fundamental problem in order to apply Machine Learning to a wide variety of tasks. Recently, two families of self-supervised methods, contrastive learning and latent bootstrapping, exemplified by SimCLR and BYOL respectively, have made significant progress. In this work, we hypothesize that adding explicit information compression to these algorithms yields better and more robust representations. We verify this by developing SimCLR and BYOL formulations compatible with the Conditional Entropy Bottleneck (CEB) objective, allowing us to both measure and control the amount of compression in the learned representation, and observe their impact on downstream tasks. Furthermore, we explore the relationship between Lipschitz continuity and compression, showing a tractable lower bound on the Lipschitz constant of the encoders we learn. As Lipschitz continuity is closely related to robustness, this provides a new explanation for why compressed models are more robust. Our experiments confirm that adding compression to SimCLR and BYOL significantly improves linear evaluation accuracies and model robustness across a wide range of domain shifts. In particular, the compressed version of BYOL achieves 76.0% Top-1 linear evaluation accuracy on ImageNet with ResNet-50, and 78.8% with ResNet-50 2x.


翻译:无需人监督即可普及有效的视觉表现,是应用机器学习应用到多种任务的根本问题。最近,两个自监督方法的家族,如SimCLR和BYOL,分别以SimCLR和BYOL为例,取得了显著进展。在这项工作中,我们假设为这些算法增加明确的信息压缩能够产生更好、更强有力的表现。我们通过开发与条件性通气博特勒克(CEB)目标兼容的SimCLR和BYOL配方来核实这一点,从而使我们能够衡量和控制所学代表方的压缩数量,并观察其对下游任务的影响。此外,我们探索利普西茨连续性和压缩之间的关系,显示我们所学的电算器的利普施茨常数的可伸缩度较低。由于利普西茨的连续性与坚固性密切相关,因此对压缩模型更加坚固的原因提供了新的解释。我们的实验证实,在SimCLR(CR)和BYOL(CEBYOL)中,大大改进了对广域变化范围的线性评价和模型的坚固度。特别是,SUPLS-50-Net-ROPER50和S-ROM-ROM-ROM-ROP-ROD-LV0的S-ROPLVAL-ROP-LVS-ROD SAD SAD SAPL SA SAD SAD SAD SAD SAPLYPLYPLM SA SA SA SALIPLM SAD SAD SAD SAL SALYPL SAD SAL SA SA SA SAL SAL SAD SAL SAD SAD SAD SAL SAL SAL SAL SAL SAL SAL SAL SA SA SAL SAL SAL SAL SAL SAL SAL SAL SAL SA SAL SAL SA SAL SAL SAL SA SA SA SA SA SA SA SAL SA SA SA SA SA SA SA SA SA SA SA SA

0
下载
关闭预览

相关内容

ICLR 2022接受论文列表出炉!1095 篇论文都在这了!
专知会员服务
74+阅读 · 2022年1月30日
最新《自监督表示学习》报告,70页ppt
专知会员服务
85+阅读 · 2020年12月22日
【KDD2020-UCLA-微软】GPT-GNN:图神经网络的预训练
专知会员服务
61+阅读 · 2020年8月19日
神经常微分方程教程,50页ppt,A brief tutorial on Neural ODEs
专知会员服务
70+阅读 · 2020年8月2日
100+篇《自监督学习(Self-Supervised Learning)》论文最新合集
专知会员服务
161+阅读 · 2020年3月18日
专知会员服务
53+阅读 · 2019年12月22日
强化学习三篇论文 避免遗忘等
CreateAMind
19+阅读 · 2019年5月24日
Hierarchically Structured Meta-learning
CreateAMind
23+阅读 · 2019年5月22日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
Unsupervised Learning via Meta-Learning
CreateAMind
41+阅读 · 2019年1月3日
Disentangled的假设的探讨
CreateAMind
9+阅读 · 2018年12月10日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
视频超分辨 Detail-revealing Deep Video Super-resolution 论文笔记
统计学习与视觉计算组
17+阅读 · 2018年3月16日
gan生成图像at 1024² 的 代码 论文
CreateAMind
4+阅读 · 2017年10月31日
Arxiv
39+阅读 · 2021年11月11日
Arxiv
9+阅读 · 2021年10月26日
Arxiv
14+阅读 · 2021年3月10日
VIP会员
相关资讯
强化学习三篇论文 避免遗忘等
CreateAMind
19+阅读 · 2019年5月24日
Hierarchically Structured Meta-learning
CreateAMind
23+阅读 · 2019年5月22日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
Unsupervised Learning via Meta-Learning
CreateAMind
41+阅读 · 2019年1月3日
Disentangled的假设的探讨
CreateAMind
9+阅读 · 2018年12月10日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
视频超分辨 Detail-revealing Deep Video Super-resolution 论文笔记
统计学习与视觉计算组
17+阅读 · 2018年3月16日
gan生成图像at 1024² 的 代码 论文
CreateAMind
4+阅读 · 2017年10月31日
Top
微信扫码咨询专知VIP会员