Bootstrapping has been a primary tool for uncertainty quantification, and its theoretical and computational properties have been investigated in the field of statistics and machine learning. However, due to its nature of repetitive computations, the computational burden required to bootstrap neural networks is painfully heavy, and this fact seriously hurdles the practical use of these procedures on the uncertainty estimation of modern deep learning. To overcome this computational bottleneck, we propose a procedure called Neural Bootstrapper (NeuBoots) that constructs a generator of bootstrapped networks. Unlike the standard bootstrap, the proposed NeuBoots can be computed on a single loss function from a single training. It thus avoids repetitive training inherited in the standard bootstrap, which significantly improves the efficiency of the bootstrap computation. We theoretically show that the NeuBoots asymptotically approximates the standard bootstrap distribution, and our empirical examples also support this assertion. Consequently, we apply the NeuBoots to uncertainty quantification tasks in machine learning, and these include prediction calibrations, semantic segmentation tasks, detection of out-of-distribution samples, and active learning. Our empirical results show that the NeuBoots performs better than the state-of-the-art procedures in the uncertainty quantification, under a much less computational cost.


翻译:为克服这一计算瓶颈,我们提出了一个名为NeuBoots(NeuBoots)的程序,用于构建一个螺旋式网络。与标准靴子装置不同,拟议的NeuBoots可以用单项训练的单项损失函数来计算。因此,它避免了在标准靴子装置中遗留下来的重复培训,从而大大提高了制鞋装置的计算效率。我们理论上表明,NeuBoots(NeuBoots)几乎接近标准靴子分布,我们的经验实例也支持这一说法。因此,我们用NeuBoots(NeuBoots)来计算机器学习中的不确定性量化任务,其中包括预测校准、语义分解任务、检测分配样本外的测试以及积极的量化程序。我们在理论上表明,NeuBoots(NeuBoots)与标准篮子分布相近,我们的经验实验结果显示,在机体学习中,在计算中,比实际的计算过程要低得多。

0
下载
关闭预览

相关内容

【干货书】机器学习速查手册,135页pdf
专知会员服务
125+阅读 · 2020年11月20日
强化学习最新教程,17页pdf
专知会员服务
174+阅读 · 2019年10月11日
MIT新书《强化学习与最优控制》
专知会员服务
275+阅读 · 2019年10月9日
强化学习三篇论文 避免遗忘等
CreateAMind
19+阅读 · 2019年5月24日
Transferring Knowledge across Learning Processes
CreateAMind
27+阅读 · 2019年5月18日
动物脑的好奇心和强化学习的好奇心
CreateAMind
10+阅读 · 2019年1月26日
逆强化学习-学习人先验的动机
CreateAMind
15+阅读 · 2019年1月18日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
无监督元学习表示学习
CreateAMind
27+阅读 · 2019年1月4日
利用动态深度学习预测金融时间序列基于Python
量化投资与机器学习
18+阅读 · 2018年10月30日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
【推荐】GAN架构入门综述(资源汇总)
机器学习研究会
10+阅读 · 2017年9月3日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
Bayesian Optimisation for Constrained Problems
Arxiv
0+阅读 · 2021年5月27日
Arxiv
1+阅读 · 2021年5月27日
Arxiv
9+阅读 · 2020年10月29日
Adaptive Neural Trees
Arxiv
4+阅读 · 2018年12月10日
Arxiv
23+阅读 · 2018年10月1日
Arxiv
6+阅读 · 2018年2月28日
VIP会员
相关VIP内容
【干货书】机器学习速查手册,135页pdf
专知会员服务
125+阅读 · 2020年11月20日
强化学习最新教程,17页pdf
专知会员服务
174+阅读 · 2019年10月11日
MIT新书《强化学习与最优控制》
专知会员服务
275+阅读 · 2019年10月9日
相关资讯
强化学习三篇论文 避免遗忘等
CreateAMind
19+阅读 · 2019年5月24日
Transferring Knowledge across Learning Processes
CreateAMind
27+阅读 · 2019年5月18日
动物脑的好奇心和强化学习的好奇心
CreateAMind
10+阅读 · 2019年1月26日
逆强化学习-学习人先验的动机
CreateAMind
15+阅读 · 2019年1月18日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
无监督元学习表示学习
CreateAMind
27+阅读 · 2019年1月4日
利用动态深度学习预测金融时间序列基于Python
量化投资与机器学习
18+阅读 · 2018年10月30日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
【推荐】GAN架构入门综述(资源汇总)
机器学习研究会
10+阅读 · 2017年9月3日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
相关论文
Bayesian Optimisation for Constrained Problems
Arxiv
0+阅读 · 2021年5月27日
Arxiv
1+阅读 · 2021年5月27日
Arxiv
9+阅读 · 2020年10月29日
Adaptive Neural Trees
Arxiv
4+阅读 · 2018年12月10日
Arxiv
23+阅读 · 2018年10月1日
Arxiv
6+阅读 · 2018年2月28日
Top
微信扫码咨询专知VIP会员