Marginal-likelihood based model-selection, even though promising, is rarely used in deep learning due to estimation difficulties. Instead, most approaches rely on validation data, which may not be readily available. In this work, we present a scalable marginal-likelihood estimation method to select both the hyperparameters and network architecture based on the training data alone. Some hyperparameters can be estimated online during training, simplifying the procedure. Our marginal-likelihood estimate is based on Laplace's method and Gauss-Newton approximations to the Hessian, and it outperforms cross-validation and manual-tuning on standard regression and image classification datasets, especially in terms of calibration and out-of-distribution detection. Our work shows that marginal likelihoods can improve generalization and be useful when validation data is unavailable (e.g., in nonstationary settings).


翻译:由于估算困难,基于边际相似度的模型选择虽然有希望,但很少用于深层次学习。相反,大多数方法都依赖验证数据,而这些数据可能不容易获得。在这项工作中,我们提出了一个可扩缩的边际相似度估计方法,以单凭培训数据选择超参数和网络结构。一些超参数可以在培训期间进行在线估计,简化程序。我们的边际相似度估计基于Laplace的方法和Gaus-Newton对赫西安人的近似值,它超过了标准回归和图像分类数据集的交叉校准和人工调整,特别是在校准和分配外检测方面。我们的工作表明,边际可能性可以改善一般化,在无法获得验证数据时(例如,在非静止环境中)有用。

0
下载
关闭预览

相关内容

专知会员服务
159+阅读 · 2020年1月16日
Stabilizing Transformers for Reinforcement Learning
专知会员服务
57+阅读 · 2019年10月17日
Hierarchically Structured Meta-learning
CreateAMind
24+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
27+阅读 · 2019年5月18日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
Unsupervised Learning via Meta-Learning
CreateAMind
41+阅读 · 2019年1月3日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
Disentangled的假设的探讨
CreateAMind
9+阅读 · 2018年12月10日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
Higher Order Targeted Maximum Likelihood Estimation
Arxiv
0+阅读 · 2021年6月30日
Arxiv
7+阅读 · 2021年5月25日
Learning to Weight for Text Classification
Arxiv
8+阅读 · 2019年3月28日
Implicit Maximum Likelihood Estimation
Arxiv
7+阅读 · 2018年9月24日
Arxiv
5+阅读 · 2017年12月14日
Arxiv
3+阅读 · 2016年2月24日
VIP会员
Top
微信扫码咨询专知VIP会员