The likelihood-informed subspace (LIS) method offers a viable route to reducing the dimensionality of high-dimensional probability distributions arisen in Bayesian inference. LIS identifies an intrinsic low-dimensional linear subspace where the target distribution differs the most from some tractable reference distribution. Such a subspace can be identified using the leading eigenvectors of a Gram matrix of the gradient of the log-likelihood function. Then, the original high-dimensional target distribution is approximated through various forms of ridge approximations of the likelihood function, in which the approximated likelihood only has support on the intrinsic low-dimensional subspace. This approximation enables the design of inference algorithms that can scale sub-linearly with the apparent dimensionality of the problem. Intuitively, the accuracy of the approximation, and hence the performance of the inference algorithms, are influenced by three factors -- the dimension truncation error in identifying the subspace, Monte Carlo error in estimating the Gram matrices, and Monte Carlo error in constructing ridge approximations. This work establishes a unified framework to analysis each of these three factors and their interplay. Under mild technical assumptions, we establish error bounds for a range of existing dimension reduction techniques based on the principle of LIS. Our error bounds also provide useful insights into the accuracy comparison of these methods. In addition, we analyze the integration of LIS with sampling methods such as Markov Chain Monte Carlo (MCMC) and sequential Monte Carlo (SMC). We also demonstrate our analyses on a linear inverse problem with Gaussian prior, which shows that all the estimates can be dimension-independent if the prior covariance is a trace-class operator.


翻译:概率知情的子空间( LIS) 方法为降低贝叶斯推论中产生的高维概率分布的维度提供了一条可行的途径。 LIS 确定了一个内在的低维线性子空间, 目标分布与某些可移动的参考分布最不同。 这样的一个子空间可以使用日志相似值函数梯度的Gram 矩阵的先导源。 然后, 原始的高维目标分布通过不同形式的概率脊柱近似差来进行估计, 其近似可能性仅支持内在的低度子空间。 这个近距离可以设计一个内含的低维线线线性线性子空间。 目标分布与某些可移植的参考分布最相异。 直观、 直观、 直观、 直观、 直观、 直径、 直径、 直径、 直径、 直径、 直径、 直、 直径直、 直、 直、 直、 直、 直、 直 直 直、 直、 直 直、 直、 直 直、 直、 直、 直、 直、 直、 直、 直、 直、 直、 直、 直、 直、 直、 直、 直、 直、 直、 直、 直、 直、 直、 直、 直、 直、 直、 直、 直、 直、 直、 直、 直、 直、 直、 直、 直、 直、 直、 直、 直、 直、 直、 直、 直、 直、 直、 直、 直、 直、 直、 直、 直、 直、 直、 直、 直、 直、 直、 直、 直、 直、 直、 直、 、 、 、 等、 、 直、 直、 直、 直、 直、 直、 直、 直、 直、 直、 、 、 、 直、 直、 直、 、 、 直、 直、 直、 直、 直、 直、 直、

0
下载
关闭预览

相关内容

专知会员服务
50+阅读 · 2020年12月14日
IEEE | DSC 2019诚邀稿件 (EI检索)
Call4Papers
10+阅读 · 2019年2月25日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
16+阅读 · 2018年12月24日
Disentangled的假设的探讨
CreateAMind
9+阅读 · 2018年12月10日
蒙特卡罗方法(Monte Carlo Methods)
数据挖掘入门与实战
6+阅读 · 2018年4月22日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
【论文】变分推断(Variational inference)的总结
机器学习研究会
39+阅读 · 2017年11月16日
【学习】Hierarchical Softmax
机器学习研究会
4+阅读 · 2017年8月6日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
强化学习 cartpole_a3c
CreateAMind
9+阅读 · 2017年7月21日
Arxiv
0+阅读 · 2021年3月4日
Arxiv
0+阅读 · 2021年3月4日
VIP会员
相关VIP内容
专知会员服务
50+阅读 · 2020年12月14日
相关资讯
IEEE | DSC 2019诚邀稿件 (EI检索)
Call4Papers
10+阅读 · 2019年2月25日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
16+阅读 · 2018年12月24日
Disentangled的假设的探讨
CreateAMind
9+阅读 · 2018年12月10日
蒙特卡罗方法(Monte Carlo Methods)
数据挖掘入门与实战
6+阅读 · 2018年4月22日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
【论文】变分推断(Variational inference)的总结
机器学习研究会
39+阅读 · 2017年11月16日
【学习】Hierarchical Softmax
机器学习研究会
4+阅读 · 2017年8月6日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
强化学习 cartpole_a3c
CreateAMind
9+阅读 · 2017年7月21日
Top
微信扫码咨询专知VIP会员