We propose Radial Bayesian Neural Networks (BNNs): a variational approximate posterior for BNNs which scales well to large models while maintaining a distribution over weight-space with full support. Other scalable Bayesian deep learning methods, like MC dropout or deep ensembles, have discrete support-they assign zero probability to almost all of the weight-space. Unlike these discrete support methods, Radial BNNs' full support makes them suitable for use as a prior for sequential inference. In addition, they solve the conceptual challenges with the a priori implausibility of weight distributions with discrete support. The Radial BNN is motivated by avoiding a sampling problem in 'mean-field' variational inference (MFVI) caused by the so-called 'soap-bubble' pathology of multivariate Gaussians. We show that, unlike MFVI, Radial BNNs are robust to hyperparameters and can be efficiently applied to a challenging real-world medical application without needing ad-hoc tweaks and intensive tuning. In fact, in this setting Radial BNNs out-perform discrete-support methods like MC dropout. Lastly, by using Radial BNNs as a theoretically principled, robust alternative to MFVI we make significant strides in a Bayesian continual learning evaluation.


翻译:我们建议Radial Bayesian神经网络(Radial Bayesian Neal Networks ) : 一种对BNNS的变相近似近似近似近似于大模型, 在全力支持下, 将重量分布比大型模型大, 并保持在重量空间上的分布。 其他可扩缩的Bayesian深层学习方法, 如 MC 辍学或深共聚体, 具有离散支持性, 将零概率分配给几乎所有的重量空间。 与这些离散支持方法不同, Radial BNNNS 的全力支持使其适合作为先行顺序推论。 此外, 它们解决了概念上的挑战, 而在独立支持下, 重量分布比重分配的先验性不易变异性。 Radial BNNNNN是避免一个抽样问题, 也就是在不断的学习中, 以不断的双向的双向,, 将这种方法作为不断的双向,, 以不断的双向的 IM 。

0
下载
关闭预览

相关内容

【哈佛大学商学院课程Fall 2019】机器学习可解释性
专知会员服务
103+阅读 · 2019年10月9日
初学者系列:推荐系统Wide & Deep Learning详解
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
27+阅读 · 2019年5月18日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
【论文】变分推断(Variational inference)的总结
机器学习研究会
39+阅读 · 2017年11月16日
【深度】可解释性与deep learning的发展
机器学习研究会
6+阅读 · 2017年10月15日
【学习】Hierarchical Softmax
机器学习研究会
4+阅读 · 2017年8月6日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
Arxiv
0+阅读 · 2021年7月20日
Arxiv
0+阅读 · 2021年7月17日
Arxiv
32+阅读 · 2021年3月8日
Compression of Deep Learning Models for Text: A Survey
A Survey on Bayesian Deep Learning
Arxiv
63+阅读 · 2020年7月2日
A Modern Introduction to Online Learning
Arxiv
20+阅读 · 2019年12月31日
Arxiv
18+阅读 · 2019年1月16日
Arxiv
4+阅读 · 2018年12月3日
VIP会员
相关VIP内容
相关资讯
初学者系列:推荐系统Wide & Deep Learning详解
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
27+阅读 · 2019年5月18日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
【论文】变分推断(Variational inference)的总结
机器学习研究会
39+阅读 · 2017年11月16日
【深度】可解释性与deep learning的发展
机器学习研究会
6+阅读 · 2017年10月15日
【学习】Hierarchical Softmax
机器学习研究会
4+阅读 · 2017年8月6日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
相关论文
Arxiv
0+阅读 · 2021年7月20日
Arxiv
0+阅读 · 2021年7月17日
Arxiv
32+阅读 · 2021年3月8日
Compression of Deep Learning Models for Text: A Survey
A Survey on Bayesian Deep Learning
Arxiv
63+阅读 · 2020年7月2日
A Modern Introduction to Online Learning
Arxiv
20+阅读 · 2019年12月31日
Arxiv
18+阅读 · 2019年1月16日
Arxiv
4+阅读 · 2018年12月3日
Top
微信扫码咨询专知VIP会员