Gaussian process regression (GPR) is a fundamental model used in machine learning. Owing to its accurate prediction with uncertainty and versatility in handling various data structures via kernels, GPR has been successfully used in various applications. However, in GPR, how the features of an input contribute to its prediction cannot be interpreted. Herein, we propose GPR with local explanation, which reveals the feature contributions to the prediction of each sample, while maintaining the predictive performance of GPR. In the proposed model, both the prediction and explanation for each sample are performed using an easy-to-interpret locally linear model. The weight vector of the locally linear model is assumed to be generated from multivariate Gaussian process priors. The hyperparameters of the proposed models are estimated by maximizing the marginal likelihood. For a new test sample, the proposed model can predict the values of its target variable and weight vector, as well as their uncertainties, in a closed form. Experimental results on various benchmark datasets verify that the proposed model can achieve predictive performance comparable to those of GPR and superior to that of existing interpretable models, and can achieve higher interpretability than them, both quantitatively and qualitatively.


翻译:Gausian 进程回归(GPR)是机器学习中使用的基本模型。由于对通过内核处理各种数据结构的准确预测具有不确定性和多功能性,GPR被成功地应用于各种应用中。然而,在GPR中,投入的特点如何有助于预测,无法解释。在这里,我们建议GPR加上本地解释,其中显示对每个样本预测的特征贡献,同时保持GPR的预测性能。在拟议的模型中,每个样本的预测和解释都使用易于解释的本地线性模型进行。当地线性模型的重量矢量假设来自多种变式高斯进程前期。拟议模型的超分数通过最大限度地增加边际可能性来估计。对于新的测试样本,拟议的模型可以以封闭的形式预测其目标变量和重量矢量的值及其不确定性。各种基准数据集的实验结果证实,拟议的模型能够实现与GPR的预测性业绩相比,并且比现有可解释模型的高级性,并且能够实现更高的质量和可解释性。

1
下载
关闭预览

相关内容

【干货书】机器学习速查手册,135页pdf
专知会员服务
126+阅读 · 2020年11月20日
【UMD开放书】机器学习课程书册,19章227页pdf,带你学习ML
机器学习相关资源(框架、库、软件)大列表
专知会员服务
40+阅读 · 2019年10月9日
【哈佛大学商学院课程Fall 2019】机器学习可解释性
专知会员服务
104+阅读 · 2019年10月9日
【SIGGRAPH2019】TensorFlow 2.0深度学习计算机图形学应用
专知会员服务
41+阅读 · 2019年10月9日
Transferring Knowledge across Learning Processes
CreateAMind
28+阅读 · 2019年5月18日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
Disentangled的假设的探讨
CreateAMind
9+阅读 · 2018年12月10日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
【学习】Hierarchical Softmax
机器学习研究会
4+阅读 · 2017年8月6日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
已删除
将门创投
7+阅读 · 2017年7月11日
Arxiv
0+阅读 · 2021年1月13日
Arxiv
0+阅读 · 2021年1月13日
Arxiv
0+阅读 · 2021年1月13日
Arxiv
0+阅读 · 2021年1月12日
Arxiv
0+阅读 · 2021年1月12日
Arxiv
0+阅读 · 2021年1月10日
Arxiv
7+阅读 · 2020年5月25日
Arxiv
3+阅读 · 2018年2月22日
VIP会员
相关资讯
Transferring Knowledge across Learning Processes
CreateAMind
28+阅读 · 2019年5月18日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
Disentangled的假设的探讨
CreateAMind
9+阅读 · 2018年12月10日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
【学习】Hierarchical Softmax
机器学习研究会
4+阅读 · 2017年8月6日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
已删除
将门创投
7+阅读 · 2017年7月11日
相关论文
Arxiv
0+阅读 · 2021年1月13日
Arxiv
0+阅读 · 2021年1月13日
Arxiv
0+阅读 · 2021年1月13日
Arxiv
0+阅读 · 2021年1月12日
Arxiv
0+阅读 · 2021年1月12日
Arxiv
0+阅读 · 2021年1月10日
Arxiv
7+阅读 · 2020年5月25日
Arxiv
3+阅读 · 2018年2月22日
Top
微信扫码咨询专知VIP会员