牛津大学YARIN GAL《贝叶斯深度学习》入门教程,336页ppt

2019 年 9 月 1 日 专知

【导读】机器学习暑期班(MLSS)是一门关于统计机器学习和推理的现代方法的课程。近日,MLSS 2019莫斯科进行多项关于机器学习的教程讲授。其中,牛津大学Yarin Gal教授带来《贝叶斯深度学习》的教程报告,详细讲解了概率建模推断、不确定性度量、深度贝叶斯推断等,是很好的学习资料。


贝叶斯深度学习


虽然深度学习对于机器学习来说是革命性的,但是大多数现代的深度学习模型既不能表示它们的不确定性,也不能利用概率论中研究得很好的工具。随着最近将贝叶斯方法与深度学习相结合的工具和技术的发展,这种情况开始发生变化。过去几年,随着利用贝叶斯技术的新型深度学习模型的引入,以及包含深度学习元素的贝叶斯模型的引入,这两个领域的交集受到了社会各界的极大关注[1-11]。事实上,贝叶斯方法在深度学习中的应用可以追溯到20世纪90年代,由Radford Neal[12]、David MacKay[13]和Dayan等人的开创性著作。这些给了我们工具来推断深层模型的信心,并在许多任务上实现了最先进的性能。然而,当新的需求出现时(如大数据的可伸缩性),早期的工具没有适应,因此被遗忘了。鉴于该领域的新进展,目前正在重新考虑这些想法,产生了许多令人兴奋的新结果。


贝叶斯模型植根于贝叶斯统计,并且很容易从该领域的大量文献中获益。相比之下,深度学习缺乏扎实的数学基础。相反,深层学习的经验发展往往是通过隐喻来证明的,从而避开了无法解释的原理。这两个领域在各自的社区中被认为是相当对立的。也许令人惊讶的是,大多数现代的深度学习模型都可以转换为在贝叶斯设置下执行近似推理。其意义是深远的:我们可以使用丰富的贝叶斯统计文献和深度学习模型,用这种技术解释许多稀奇古怪的东西,将深度学习的结果结合到贝叶斯模型中,等等。


在这次演讲中,我将回顾一个新的理论,它将贝叶斯建模和深度学习联系起来,并通过一系列的实际应用来展示框架的实际影响。我还将探索未来研究的开放性问题——站在这一令人兴奋的新领域前沿的问题。


http://bdl101.ml/



更多请下载查看

更多内容,请关注专知公众号(点击上方蓝色专知关注)

后台回复“BDL2019”就可以获取完整版PPT下载链接~


参考文献

  1. Kingma, DP and Welling, M, ‘’Auto-encoding variational bayes’’, 2013.

  2. Rezende, D, Mohamed, S, and Wierstra, D, ‘’Stochastic backpropagation and approximate inference in deep generative models’’, 2014.

  3. Blundell, C, Cornebise, J, Kavukcuoglu, K, and Wierstra, D, ‘’Weight uncertainty in neural network’’, 2015.

  4. Hernandez-Lobato, JM and Adams, R, ’’Probabilistic backpropagation for scalable learning of Bayesian neural networks’’, 2015.

  5. Gal, Y and Ghahramani, Z, ‘’Dropout as a Bayesian approximation: Representing model uncertainty in deep learning’’, 2015.

  6. Gal, Y and Ghahramani, G, ‘’Bayesian convolutional neural networks with Bernoulli approximate variational inference’’, 2015.

  7. Kingma, D, Salimans, T, and Welling, M. ‘’Variational dropout and the local reparameterization trick’’, 2015.

  8. Balan, AK, Rathod, V, Murphy, KP, and Welling, M, ‘’Bayesian dark knowledge’’, 2015.

  9. Louizos, C and Welling, M, “Structured and Efficient Variational Deep Learning with Matrix Gaussian Posteriors”, 2016.

  10. Lawrence, ND and Quinonero-Candela, J, “Local distance preservation in the GP-LVM through back constraints”, 2006.

  11. Tran, D, Ranganath, R, and Blei, DM, “Variational Gaussian Process”, 2015.

  12. Neal, R, ‘’Bayesian Learning for Neural Networks’’, 1996.

  13. MacKay, D, ‘’A practical Bayesian framework for backpropagation networks‘’, 1992.




-END-

专 · 知


专知,专业可信的人工智能知识分发,让认知协作更快更好!欢迎登录www.zhuanzhi.ai,注册登录专知,获取更多AI知识资料!

欢迎微信扫一扫加入专知人工智能知识星球群,获取最新AI专业干货知识教程视频资料和与专家交流咨询

请加专知小助手微信(扫一扫如下二维码添加),加入专知人工智能主题群,咨询技术商务合作~

专知《深度学习:算法到实战》课程全部完成!560+位同学在学习,现在报名,限时优惠!网易云课堂人工智能畅销榜首位!

点击“阅读原文”,了解报名专知《深度学习:算法到实战》课程

登录查看更多
11

相关内容

贝叶斯方法可以用于学习神经网络权重的概率分布。将神经网络中的wi 和 b 由确定的值变成分布(distributions)。具体而言,为弥补反向传播的不足,通过在模型参数或模型输出上放置概率分布来估计。在权重上放置一个先验分布,然后尝试捕获这些权重在给定数据的情况下变化多少来模拟认知不确定性。该方法不是训练单个网络,而是训练网络集合,其中每个网络的权重来自共享的、已学习的概率分布。
Yoshua Bengio最新《深度学习》MLSS2020教程,附104页PPT及视频
专知会员服务
129+阅读 · 2020年7月10日
【牛津大学&DeepMind】自监督学习教程,141页ppt
专知会员服务
179+阅读 · 2020年5月29日
WSDM 2020教程《深度贝叶斯数据挖掘》,附257页PPT下载
专知会员服务
156+阅读 · 2020年2月7日
深度强化学习策略梯度教程,53页ppt
专知会员服务
178+阅读 · 2020年2月1日
246 页《统计机器学习与凸优化》教程 PPT 下载
新智元
24+阅读 · 2018年9月21日
【干货】最新GAN教程,153PPT附代码
GAN生成式对抗网络
12+阅读 · 2018年9月18日
【深度】让DL可解释?这一份66页贝叶斯深度学习教程告诉你
GAN生成式对抗网络
15+阅读 · 2018年8月11日
115页Slides带你领略深度生成模型全貌(附PPT)
数据派THU
12+阅读 · 2018年7月31日
A Modern Introduction to Online Learning
Arxiv
20+阅读 · 2019年12月31日
Arxiv
19+阅读 · 2019年4月5日
Knowledge Representation Learning: A Quantitative Review
Arxiv
3+阅读 · 2018年1月31日
VIP会员
Top
微信扫码咨询专知VIP会员