本课程将涵盖深度学习中不需要标注数据的两个领域:深度生成模型和自监督学习。生成模型的最新进展使得对自然图像、音频波形和文本语料库等高维原始数据进行真实建模成为可能。自监督学习的进步已经开始缩小监督表示学习和非监督表示学习之间的差距,本课程将涵盖这些主题的理论基础以及它们的新应用。
课程目录
- 第1a讲: 课程安排;
- 第1b讲: 课程动机;
- 第1c讲: 基于似然的模型 Part I: 自回归模型
- 第2a讲: 基于似然的模型 Part I: 自回归模型 (ctd)
- 第2b讲: 无损压缩(Lossless Compression)
- 第2c讲: 基于似然的模型 Part II: 流模型
- 第3a讲:基于似然的模型 Part II:流模型(ctd)
- 第3b讲:隐变量模型
- 第4a讲:隐变量模型(ctd)(与第3周ppt相同)
- 第5讲:隐式模型/生成对抗网络
- 第六讲:非生成性表征学
- 第7a讲:非生成表征学习(ctd)
- 第7b讲:半监督学习
- 第8讲:表征学习+其他问题
- 第9a讲:无监督分布对齐
- 第9b讲:客座讲座:Ilya Sutskever
- 第10a讲:无监督分配对齐(ctd)
- 第10b讲:客座讲座:Durk Kingma
- 第11讲:语言模型(Alec Radford)
- 第12a讲:无监督的表征学习
- 第12b讲:客座讲座Alyosha Efros
- 第13a讲:待定(TBD)
- 第13b讲:客座讲座Aaron van den Oord