【图灵奖得主Yann Lecun最新演讲】基于能量的自监督学习,68页ppt,了解后深度学习发展趋势

2019 年 11 月 25 日 专知

【导读】在最近的物理机器学习交叉论坛上,Facebook人工智能总监、图灵奖得主Yann Lecun给了自监督学习的报告《Energy-Based Self-Supervised Learning 》,68页ppt,介绍了自监督学习的光明前景,基于能量学习的因变量模型,介绍最新自监督学习的进展与问题,是非常值得看的报告。


链接地址:

https://www.ipam.ucla.edu/programs/workshops/workshop-iv-using-physical-insights-for-machine-learning/?tab=schedule




Yann LeCun


在人工智能研究领域,Yann LeCun、Geoffrey Hinton 和 Yoshua Bengio一直被公认为深度学习三巨头,一起获得2018年图灵奖。


Yann LeCun,自称中文名“杨立昆”,计算机科学家,被誉为“卷积网络之父”,为卷积神经网络(CNN,Convolutional Neural Networks)和图像识别领域做出了重要贡献,以手写字体识别、图像压缩和人工智能硬件等主题发表过 190 多份论文,研发了很多关于深度学习的项目,并且拥有14项相关的美国专利。他同Léon Bottou和Patrick Haffner等人一起创建了DjVu图像压缩技术,同Léon Bottou一起开发了一种开源的Lush语言,比Matlab功能还要强大,并且也是一位Lisp高手。(Backpropagation,简称BP)反向传播这种现阶段常用来训练人工神经网络的算法,就是 LeCun 和其老师“神经网络之父”Geoffrey Hinton 等科学家于 20 世纪 80 年代中期提出的,而后 LeCun 在贝尔实验室将 BP 应用于卷积神经网络中,并将其实用化,推广到各种图像相关任务中。


Yann LeCun 也是Facebook人工智能研究院院长,纽约大学的 Silver 教授,隶属于纽约大学数据科学中心、Courant 数学科学研究所、神经科学中心和电气与计算机工程系。加盟Facebook之前,Lecun已在贝尔实验室工作超过20年,期间他开发了一套能够识别手写数字的系统,叫作LeNet,用到了卷积神经网络,已开源。他在 1983 年在巴黎 ESIEE 获得电子工程学位,1987 年在 Université P&M Curie 获得计算机科学博士学位。在完成了多伦多大学的博士后研究之后,他在 1988 年加入了 AT&T 贝尔实验室(AT&T Bell Laboratories /Holmdel, NJ),在 1996 年成为 AT&T Labs-Research 的图像处理研究部门主管。2003 年,他加入纽约大学获得教授任职,并在 NEC 研究所(普林斯顿)呆过短暂一段时间。2012 年他成为纽约大学数据科学中心的创办主任。2013 年末,他成为 Facebook 的人工智能研究中心(FAIR)负责人,并仍保持在 NYU 中兼职教学。从 2015 到 2016 年,Yann LeCun 还是法兰西学院的访问学者。



Energy-Based Self-Supervised Learning  自监督学习



深度学习在计算机感知、自然语言理解和控制方面取得了重大进展。但几乎所有这些成功在很大程度上都依赖于监督学习(这需要机器预测人类提供的注释),或无模型强化学习(这需要机器学习动作以最大化回报)。监督学习需要大量带标签的样本,使得它只适用于特定的任务。即使是学习简单的任务,强化学习也需要与环境进行大量的交互(以及许多失败)。相比之下,动物和人类似乎只通过观察和偶尔的互动就能学习大量与任务无关的知识,了解世界是如何运转的。学习新任务或技能需要很少的样本或与世界的互动: 我们学习驾驶和驾驶飞机大约30个小时的练习,没有致命的失败。人类和动物是用什么学习范式来高效学习的?我将提出一个假设,即预测世界模型的自我监督学习是当前人工智能研究方法中不可或缺的一个要素。有了这些模型,人们就可以预测结果和计划行动过程。有人可能会说预测是智力的本质。好的预测模型可能是直觉、推理和“常识”的基础,让我们能够填补缺失的信息:从过去和现在预测未来,或从嘈杂的感知推断世界的状态。

报告内容

1. 监督学习work但是需要大量标注数据


2. 强化学习对于游戏和仿真十分有效,但在现实世界很难奏效


3.  人类如何能学得这么快!


婴儿用过观察学习!


预测是智能的实质。


4. 自监督学习是未来


自监督学习等价于自身填空


SSL对于文本离散数据有效,对于图像语音数据不那么work

三类学习方式



不确定性问题

能量模型



结论:

SSL是未来

  • 低资源任务的层次特征学习

  • 大规模网络的层次特征学习

  • 学习基于模型的控制/RL的正向模型

我的钱花在:

  • 能源为基础的方法

  • 处理多模态的潜在变量模型

  • 正则化潜在变量模型

  • 稀疏潜变量模型

  • 潜在变量预测通过一个可训练的编码器


更多请下载完整版查看: 请关注 专知 公众号(点击上方蓝色 专知 关注
  • 后台回复“ESSL” 咨询获取Lecun《Energy-Based Self-Supervised Learning 》PPT下载链接


更多"自监督学习"请关注登录专知网站www.zhuanzhi.ai, 实时更新关注:

https://www.zhuanzhi.ai/topic/2001172374045048/vip




-END-
专 · 知


专知,专业可信的人工智能知识分发,让认知协作更快更好!欢迎注册登录专知www.zhuanzhi.ai,获取5000+AI主题干货知识资料!
欢迎微信扫一扫加入专知人工智能知识星球群,获取最新AI专业干货知识教程视频资料和与专家交流咨询
请加专知小助手微信(扫一扫如下二维码添加),获取专知VIP会员码,加入专知人工智能主题群,咨询技术商务合作~
点击“阅读原文”,使用 专知 ,查看5000+AI主题知识资料
登录查看更多
41

相关内容

自监督学习(self-supervised learning)可以被看作是机器学习的一种“理想状态”,模型直接从无标签数据中自行学习,无需标注数据。
Yoshua Bengio最新《深度学习》MLSS2020教程,附104页PPT及视频
专知会员服务
128+阅读 · 2020年7月10日
最新《生成式对抗网络》简介,25页ppt
专知会员服务
173+阅读 · 2020年6月28日
非凸优化与统计学,89页ppt,普林斯顿Yuxin Chen博士
专知会员服务
102+阅读 · 2020年6月28日
Yann Lecun 纽约大学《深度学习(PyTorch)》课程(2020)PPT
专知会员服务
179+阅读 · 2020年3月16日
最新!Yann Lecun 纽约大学Spring2020深度学习课程,附PPT下载
【干货】Yann Lecun自监督学习指南(附114页Slides全文)
GAN生成式对抗网络
93+阅读 · 2018年12月19日
深度学习综述:Hinton、Yann LeCun和Bengio经典重读
机器学习算法与Python学习
4+阅读 · 2018年3月22日
Yann LeCun:深度学习已死,可微分编程万岁!
Yann Lecun最新演讲:机器怎样进行有效学习?
数据派THU
5+阅读 · 2017年11月17日
Image Segmentation Using Deep Learning: A Survey
Arxiv
44+阅读 · 2020年1月15日
A Comprehensive Survey on Graph Neural Networks
Arxiv
13+阅读 · 2019年3月10日
Arxiv
3+阅读 · 2018年6月24日
VIP会员
Top
微信扫码咨询专知VIP会员