简介: Yann Lecun在演讲中介绍了“蛋糕类比”,以说明自我监督学习的重要性。 尽管对此类比法进行了辩论(参见:《机器人的深度学习》(幻灯片96), Pieter Abbeel),但我们已经看到了自我监督学习在自然语言处理领域的影响,该领域的最新发展(Word2Vec,Glove,ELMO,BERT) 进行自我监督并取得了最新成果。

“如果智力是蛋糕,那么蛋糕的大部分是自我监督学习,蛋糕上的糖衣是监督学习,蛋糕上的樱桃是强化学习(RL)。”

核心思想:

要应用监督学习,我们需要足够的标签数据。 为此,人工注释者手动标记数据(图像/文本),这既耗时又昂贵。 还有一些领域,例如医学领域,获取足够的数据本身就是一个挑战。

这是自我监督学习发挥作用的地方。 为此提出了以下问题: 我们是否可以通过这样的方式设计任务,即可以从现有图像中生成几乎无限的标签,并以此来学习表示形式?

现存的方法:

  • 图片
    • 图片着色
    • 图片超分辨率
    • 图像修补
    • 图像拼图
    • 上下文预测
    • 图像几何变换识别
    • 图像聚类
    • 图片合成
  • 视频
    • 图片帧顺序验证

成为VIP会员查看完整内容
42

相关内容

自监督学习(self-supervised learning)可以被看作是机器学习的一种“理想状态”,模型直接从无标签数据中自行学习,无需标注数据。
【MIT】反偏差对比学习,Debiased Contrastive Learning
专知会员服务
90+阅读 · 2020年7月4日
【Google】监督对比学习,Supervised Contrastive Learning
专知会员服务
74+阅读 · 2020年4月24日
100+篇《自监督学习(Self-Supervised Learning)》论文最新合集
专知会员服务
164+阅读 · 2020年3月18日
【自监督学习】OpenAI科学家一文详解自监督学习
产业智能官
25+阅读 · 2020年3月18日
OpenAI科学家一文详解自监督学习
新智元
18+阅读 · 2019年11月20日
深度思考 | 从BERT看大规模数据的无监督利用
PaperWeekly
11+阅读 · 2019年2月18日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
简述表征句子的3种无监督深度学习方法
数盟
4+阅读 · 2018年4月23日
【强化学习】强化学习/增强学习/再励学习介绍
产业智能官
10+阅读 · 2018年2月23日
Arxiv
7+阅读 · 2018年5月23日
Arxiv
15+阅读 · 2018年4月3日
VIP会员
微信扫码咨询专知VIP会员