尽管深度网络在计算机视觉方面取得了实验性成功,但它们往往需要“大的”和高质量标记的训练数据。当被运用于研究真实视觉世界中的复杂问题时,它们的性能是有限的,因为数据和标签的获取是非常昂贵的,或者可能以各种噪声、弱或长尾的形式出现。例如,收集许多科学和工程学科(天文学、材料科学、地球科学、医学等)的图像数据往往依赖于昂贵和高风险的实验。此外,在这些应用中,数据标签的操作也很繁琐,需要高技能的专业人员,这给使用一些具有成本效益的解决方案(如众包)带来了挑战。此外,对于专有或敏感数据,使用众包来大规模标记数据往往是不可行的。更糟糕的是,当经过训练的模型面临操作环境的变化,需要进行调整时,总是需要额外的标签。对于许多问题,使模型适应新环境所需的标记数据接近从头训练所需的数量。因此,当系统表现出非平稳特性或在不同的环境中运行时,也需要连续的数据和标签收集。

在CVPR2021本教程中,来自Google大脑的Chen Ting讲述了自监督视觉表示学习中的关键技术-对比学习要点,非常值得关注!

自监督学习快速概览

对比学习, Contrastive learning

对比学习的关键要素 What matters in contrastive learning

面临少样本如何处理 How to do better with a few labels

对比学习限制要素, What is limiting contrastive learning

成为VIP会员查看完整内容
37

相关内容

自监督学习(self-supervised learning)可以被看作是机器学习的一种“理想状态”,模型直接从无标签数据中自行学习,无需标注数据。
专知会员服务
29+阅读 · 2021年5月20日
专知会员服务
38+阅读 · 2021年5月16日
预训练语言模型fine-tuning近期进展概述
专知会员服务
38+阅读 · 2021年4月9日
最新《自监督表示学习》报告,70页ppt
专知会员服务
85+阅读 · 2020年12月22日
近期必读的七篇NeurIPS 2020【对比学习】相关论文和代码
专知会员服务
65+阅读 · 2020年10月20日
【Google AI】开源NoisyStudent:自监督图像分类
专知会员服务
54+阅读 · 2020年2月18日
【MIT】硬负样本的对比学习
专知
13+阅读 · 2020年10月15日
计算机视觉中的自监督表示学习近期进展
PaperWeekly
9+阅读 · 2020年10月5日
用 SimCLR 提高自监督与半监督学习效果
谷歌开发者
5+阅读 · 2020年5月12日
OpenAI科学家一文详解自监督学习
新智元
18+阅读 · 2019年11月20日
机器也能学会如何学习?——元学习介绍
AINLP
19+阅读 · 2019年9月22日
Arxiv
5+阅读 · 2020年10月21日
Arxiv
19+阅读 · 2020年7月21日
Arxiv
3+阅读 · 2019年3月29日
VIP会员
相关VIP内容
专知会员服务
29+阅读 · 2021年5月20日
专知会员服务
38+阅读 · 2021年5月16日
预训练语言模型fine-tuning近期进展概述
专知会员服务
38+阅读 · 2021年4月9日
最新《自监督表示学习》报告,70页ppt
专知会员服务
85+阅读 · 2020年12月22日
近期必读的七篇NeurIPS 2020【对比学习】相关论文和代码
专知会员服务
65+阅读 · 2020年10月20日
【Google AI】开源NoisyStudent:自监督图像分类
专知会员服务
54+阅读 · 2020年2月18日
相关资讯
微信扫码咨询专知VIP会员