报告主题: Energy-Based Self-Supervised Learning
报告摘要:
在监督或多任务学习中,将不会获得像人类一样可以泛化的智能。监督学习是有效的,但需要许多带标签的样本,通过举例而不是编程来训练机器,当输出错误时,调整机器的参数。在整个领域中可能需要在基于能量的学习方法上做更多的工作,能量函数在AI领域已经存在数十年了,无需创建大量带有标签的数据集,也不用花费数千个小时训练模型,而只是获取一些丰富的原始数据,让机器变得足够大,由此可以训练机器预测,预测与现实之间的兼容性就是所谓的能级。能量越少越好,更兼容、更准确,因此神经网络需要努力达到理想的低能量状态。
嘉宾介绍:
Yann Lecun是一位法裔美国计算机科学家,主要研究领域为机器学习、计算机视觉、移动机器人和计算神经科学。他是纽约大学Courant数学科学研究所的银牌教授,也是Facebook的副总裁兼首席人工智能科学家。他以研究卷积神经网络(CNN)的光学字符识别和计算机视觉而闻名,是卷积网络的创始人之一。他也是DjVu图像压缩技术的主要创建者之一(与Leon Bottou和Patrick Haffner一起)。他与Leon Bottou共同开发了Lush编程语言。他是2018年ACM A.M.的联合获奖者因为他在深度学习方面的工作获得了图灵奖。