当前计算机视觉的焦点在于从监督数据学习视觉表示,并使用这些表示/模型权重作为初始化其他缺乏标记数据的任务。标签数据可能是昂贵的,例如,Imagenet数据集有大约1400万张图片和22000个类别,需要大约22年的人类年来进行标签。

自监督方法的分类: 相似性最大化目标 减少冗余目标

Chapters 00:00 – Welcome to class 01:05 – Self-supervised learning in computer vision 15:20– Pretext-invariant representation learning (PIRL) 27:08 – Swapping assignments between views (SwAV) 48:39 – Audiovisual instance discrimination with cross model agreement (AVID + CMA) 58:24 – Barlow Twins: self-supervised learning via redundancy reduction

成为VIP会员查看完整内容
35

相关内容

自监督学习(self-supervised learning)可以被看作是机器学习的一种“理想状态”,模型直接从无标签数据中自行学习,无需标注数据。
自监督学习最新研究进展
专知会员服务
76+阅读 · 2021年3月24日
最新《自监督表示学习》报告,70页ppt
专知会员服务
85+阅读 · 2020年12月22日
【牛津大学&DeepMind】自监督学习教程,141页ppt
专知会员服务
179+阅读 · 2020年5月29日
少标签数据学习,54页ppt
专知会员服务
198+阅读 · 2020年5月22日
【Facebook AI】低资源机器翻译,74页ppt
专知会员服务
29+阅读 · 2020年4月8日
计算机视觉中的自监督表示学习近期进展
PaperWeekly
9+阅读 · 2020年10月5日
对比自监督学习
深度学习自然语言处理
34+阅读 · 2020年7月15日
【自监督学习】OpenAI科学家一文详解自监督学习
产业智能官
25+阅读 · 2020年3月18日
OpenAI科学家一文详解自监督学习
新智元
18+阅读 · 2019年11月20日
计算机视觉中深度迁移学习,165页PPT
专知
23+阅读 · 2019年8月18日
计算机视觉的不同任务
专知
5+阅读 · 2018年8月27日
Arxiv
3+阅读 · 2018年12月19日
VIP会员
相关VIP内容
相关资讯
计算机视觉中的自监督表示学习近期进展
PaperWeekly
9+阅读 · 2020年10月5日
对比自监督学习
深度学习自然语言处理
34+阅读 · 2020年7月15日
【自监督学习】OpenAI科学家一文详解自监督学习
产业智能官
25+阅读 · 2020年3月18日
OpenAI科学家一文详解自监督学习
新智元
18+阅读 · 2019年11月20日
计算机视觉中深度迁移学习,165页PPT
专知
23+阅读 · 2019年8月18日
计算机视觉的不同任务
专知
5+阅读 · 2018年8月27日
微信扫码咨询专知VIP会员