我们定义了深度核过程,其中正定格拉姆矩阵由非线性核函数和(逆)Wishart分布的采样逐步变换。值得注意的是,我们发现深度高斯过程(DGPs),贝叶斯神经网络(BNNs),无限的BNNs和无限的有瓶颈的BNNs都可以写成深度核过程。对于DGPs,产生等价是因为由特征的内积形成的格拉姆矩阵是Wishart分布的,正如我们所示,标准的各向同性核完全可以用这个格拉姆矩阵来表示——我们不需要关于底层特征的知识。我们定义了一个可处理的深度核过程,即深度逆Wishart过程,并给出了一个双随机诱导点变分推理方案,该方案作用于Gram矩阵,而不是像DGPs中那样作用于特征。结果表明,在全连通基线上,深度逆Wishart过程的性能优于DGPs和无限BNN网络。

成为VIP会员查看完整内容
25

相关内容

高斯过程(Gaussian Process, GP)是概率论和数理统计中随机过程(stochastic process)的一种,是一系列服从正态分布的随机变量(random variable)在一指数集(index set)内的组合。 高斯过程中任意随机变量的线性组合都服从正态分布,每个有限维分布都是联合正态分布,且其本身在连续指数集上的概率密度函数即是所有随机变量的高斯测度,因此被视为联合正态分布的无限维广义延伸。高斯过程由其数学期望和协方差函数完全决定,并继承了正态分布的诸多性质
专知会员服务
23+阅读 · 2021年9月22日
专知会员服务
20+阅读 · 2021年8月24日
专知会员服务
30+阅读 · 2021年7月19日
专知会员服务
26+阅读 · 2021年7月11日
专知会员服务
11+阅读 · 2021年7月4日
专知会员服务
19+阅读 · 2021年5月30日
专知会员服务
11+阅读 · 2021年5月26日
专知会员服务
32+阅读 · 2021年5月18日
专知会员服务
14+阅读 · 2021年5月12日
[ICML-Google]先宽后窄:对深度薄网络的有效训练
专知会员服务
34+阅读 · 2020年7月5日
【ICML2021】低秩Sinkhorn 分解
专知
9+阅读 · 2021年8月20日
【ICML2021】因果匹配领域泛化
专知
12+阅读 · 2021年8月12日
【NeurIPS 2020】核基渐进蒸馏加法器神经网络
专知
13+阅读 · 2020年10月19日
【泡泡图灵智库】用于单目深度估计的深度有序回归网络
机器学习(27)【降维】之主成分分析(PCA)详解
机器学习算法与Python学习
9+阅读 · 2017年11月22日
深度判别和共享特征学习的图像分类
计算机视觉战队
6+阅读 · 2017年9月27日
Joint Normality Test Via Two-Dimensional Projection
Arxiv
0+阅读 · 2021年10月8日
Arxiv
5+阅读 · 2017年11月30日
Arxiv
4+阅读 · 2015年8月25日
VIP会员
相关VIP内容
专知会员服务
23+阅读 · 2021年9月22日
专知会员服务
20+阅读 · 2021年8月24日
专知会员服务
30+阅读 · 2021年7月19日
专知会员服务
26+阅读 · 2021年7月11日
专知会员服务
11+阅读 · 2021年7月4日
专知会员服务
19+阅读 · 2021年5月30日
专知会员服务
11+阅读 · 2021年5月26日
专知会员服务
32+阅读 · 2021年5月18日
专知会员服务
14+阅读 · 2021年5月12日
[ICML-Google]先宽后窄:对深度薄网络的有效训练
专知会员服务
34+阅读 · 2020年7月5日
相关资讯
微信扫码咨询专知VIP会员