A novel Bayesian approach to the problem of variable selection using Gaussian process regression is proposed. The selection of the most relevant variables for a problem at hand often results in an increased interpretability and in many cases is an essential step in terms of model regularization. In detail, the proposed method relies on so-called nearest neighbor Gaussian processes, that can be considered as highly scalable approximations of classical Gaussian processes. To perform a variable selection the mean and the covariance function of the process are conditioned on a random set $\mathcal{A}$. This set holds the indices of variables that contribute to the model. While the specification of a priori beliefs regarding $\mathcal{A}$ allows to control the number of selected variables, so-called reference priors are assigned to the remaining model parameters. The application of the reference priors ensures that the process covariance matrix is (numerically) robust. For the model inference a Metropolis within Gibbs algorithm is proposed. Based on simulated data, an approximation problem from computer experiments and two real-world datasets, the performance of the new approach is evaluated.


翻译:对使用 Gausian 进程回归法的变量选择问题提出了一种新颖的巴伊西亚方法。 选择手头问题最相关的变量往往导致解释性增加, 在许多情况下, 这是模式正规化的一个必要步骤。 详细来说, 拟议方法依赖于所谓的近邻高萨进程, 这可以被视为古典高山进程高度可缩放的近似近似值。 要执行变量选择, 过程的平均值和共变量功能取决于随机设定 $\ mathcal{A}$ 。 此集保存着有助于模型的变量索引。 虽然对 $\ mathcal{A} $ 的先验信念的规格允许控制选定变量的数量, 但所谓的先前引用被指定给其余的模型参数。 引用前的应用程序可以确保进程共变矩阵( 数字) 稳健。 对于在 Gibbs 算法中推导出Metopolis 的模型, 以模拟数据为基础, 计算机实验和两个真实世界数据集的近似问题, 对新方法的性进行了评估。

0
下载
关闭预览

相关内容

Processing 是一门开源编程语言和与之配套的集成开发环境(IDE)的名称。Processing 在电子艺术和视觉设计社区被用来教授编程基础,并运用于大量的新媒体和互动艺术作品中。
专知会员服务
50+阅读 · 2020年12月14日
【干货书】机器学习速查手册,135页pdf
专知会员服务
125+阅读 · 2020年11月20日
Linux导论,Introduction to Linux,96页ppt
专知会员服务
78+阅读 · 2020年7月26日
Keras François Chollet 《Deep Learning with Python 》, 386页pdf
专知会员服务
152+阅读 · 2019年10月12日
强化学习最新教程,17页pdf
专知会员服务
174+阅读 · 2019年10月11日
机器学习入门的经验与建议
专知会员服务
92+阅读 · 2019年10月10日
Transferring Knowledge across Learning Processes
CreateAMind
28+阅读 · 2019年5月18日
逆强化学习-学习人先验的动机
CreateAMind
15+阅读 · 2019年1月18日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
Disentangled的假设的探讨
CreateAMind
9+阅读 · 2018年12月10日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
分布式TensorFlow入门指南
机器学习研究会
4+阅读 · 2017年11月28日
【论文】变分推断(Variational inference)的总结
机器学习研究会
39+阅读 · 2017年11月16日
【计算机类】期刊专刊/国际会议截稿信息6条
Call4Papers
3+阅读 · 2017年10月13日
【学习】Hierarchical Softmax
机器学习研究会
4+阅读 · 2017年8月6日
强化学习 cartpole_a3c
CreateAMind
9+阅读 · 2017年7月21日
VIP会员
相关VIP内容
相关资讯
Transferring Knowledge across Learning Processes
CreateAMind
28+阅读 · 2019年5月18日
逆强化学习-学习人先验的动机
CreateAMind
15+阅读 · 2019年1月18日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
Disentangled的假设的探讨
CreateAMind
9+阅读 · 2018年12月10日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
分布式TensorFlow入门指南
机器学习研究会
4+阅读 · 2017年11月28日
【论文】变分推断(Variational inference)的总结
机器学习研究会
39+阅读 · 2017年11月16日
【计算机类】期刊专刊/国际会议截稿信息6条
Call4Papers
3+阅读 · 2017年10月13日
【学习】Hierarchical Softmax
机器学习研究会
4+阅读 · 2017年8月6日
强化学习 cartpole_a3c
CreateAMind
9+阅读 · 2017年7月21日
Top
微信扫码咨询专知VIP会员