We introduce a framework for uncertainty estimation that both describes and extends many existing methods. We consider typical hyperparameters involved in classical training as random variables and marginalise them out to capture various sources of uncertainty in the parameter space. We investigate which forms and combinations of marginalisation are most useful from a practical point of view on standard benchmarking data sets. Moreover, we discuss how some marginalisations may produce reliable estimates of uncertainty without the need for extensive hyperparameter tuning and/or large-scale ensembling.


翻译:我们引入了一个描述和扩展许多现有方法的不确定性估算框架。我们认为典型的超参数在古典培训中是随机变数,将其排挤出去以捕捉参数空间的各种不确定性来源。我们从标准基准数据集的实用角度看,调查边缘化的哪些形式和组合最为有用。此外,我们讨论了一些边缘化如何在不需要大规模超参数调整和(或)大规模组合的情况下产生可靠的不确定性估算。

0
下载
关闭预览

相关内容

专知会员服务
22+阅读 · 2021年6月26日
【2020新书】金融机器学习和数据科学,400页pdf
专知会员服务
302+阅读 · 2020年12月13日
【干货书】机器学习速查手册,135页pdf
专知会员服务
127+阅读 · 2020年11月20日
强化学习最新教程,17页pdf
专知会员服务
182+阅读 · 2019年10月11日
灾难性遗忘问题新视角:迁移-干扰平衡
CreateAMind
17+阅读 · 2019年7月6日
Transferring Knowledge across Learning Processes
CreateAMind
29+阅读 · 2019年5月18日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
已删除
将门创投
4+阅读 · 2017年12月12日
【论文】变分推断(Variational inference)的总结
机器学习研究会
39+阅读 · 2017年11月16日
Arxiv
8+阅读 · 2021年7月15日
VIP会员
相关VIP内容
专知会员服务
22+阅读 · 2021年6月26日
【2020新书】金融机器学习和数据科学,400页pdf
专知会员服务
302+阅读 · 2020年12月13日
【干货书】机器学习速查手册,135页pdf
专知会员服务
127+阅读 · 2020年11月20日
强化学习最新教程,17页pdf
专知会员服务
182+阅读 · 2019年10月11日
相关资讯
灾难性遗忘问题新视角:迁移-干扰平衡
CreateAMind
17+阅读 · 2019年7月6日
Transferring Knowledge across Learning Processes
CreateAMind
29+阅读 · 2019年5月18日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
已删除
将门创投
4+阅读 · 2017年12月12日
【论文】变分推断(Variational inference)的总结
机器学习研究会
39+阅读 · 2017年11月16日
Top
微信扫码咨询专知VIP会员