自监督学习(Self-Supervised learning, SSL)是近年来机器学习研究的热点之一。在SSL中,学习模型捕获输入变量之间的依赖关系,其中一些可能被观察到,记为X,而另一些不总是被观察到,记为Y。SSL预训练已经彻底改变了自然语言处理,并在语音和图像识别方面取得了非常快的进展。SSL可以使机器通过观察学习世界的预测模型,并学习感知世界的表示,从而减少标记样本或奖励试验的数量,以学习下游任务。在基于能量的模型框架(EBM)中,X和Y都是输入,模型输出一个度量X和Y之间不兼容程度的标量能量。EBM是隐式函数,可以表示X和Y之间复杂和多模态的依赖关系。EBM架构主要分为两类:联合嵌入架构和潜在变量生成架构。训练EBMs的方法主要有两类: 对比方法和容量正则化方法。EBM的许多基础数学借鉴自统计物理学,包括配分函数、自由能量和其变分逼近的概念。

成为VIP会员查看完整内容
55

相关内容

自监督学习(self-supervised learning)可以被看作是机器学习的一种“理想状态”,模型直接从无标签数据中自行学习,无需标注数据。
专知会员服务
39+阅读 · 2021年7月4日
专知会员服务
53+阅读 · 2021年6月17日
最新《自监督表示学习》报告,70页ppt
专知会员服务
85+阅读 · 2020年12月22日
最新《深度卷积神经网络理论》报告,35页ppt
专知会员服务
45+阅读 · 2020年11月30日
【牛津大学&DeepMind】自监督学习教程,141页ppt
专知会员服务
179+阅读 · 2020年5月29日
【干货】Yann Lecun自监督学习指南(附114页Slides全文)
GAN生成式对抗网络
93+阅读 · 2018年12月19日
自然语言处理(NLP)前沿进展报告(PPT下载)
一文读懂神经网络(附PPT、视频)
数据派THU
17+阅读 · 2018年3月25日
Arxiv
0+阅读 · 2021年8月18日
Arxiv
19+阅读 · 2021年4月8日
Arxiv
8+阅读 · 2018年11月21日
Arxiv
3+阅读 · 2018年3月22日
VIP会员
微信扫码咨询专知VIP会员