Gaussian graphical models are popular tools for studying the dependence relationships between different random variables. We propose a novel approach to Gaussian graphical models that relies on decomposing the precision matrix encoding the conditional independence relationships into a low rank and a diagonal component. Such decompositions are already popular for modeling large covariance matrices as they admit a latent factor based representation that allows easy inference but are yet to garner widespread use in precision matrix models due to their computational intractability. We show that a simple latent variable representation for such decomposition in fact exists for precision matrices as well. The latent variable construction provides fundamentally novel insights into Gaussian graphical models. It is also immediately useful in Bayesian settings in achieving efficient posterior inference via a straightforward Gibbs sampler that scales very well to high-dimensional problems far beyond the limits of the current state-of-the-art. The ability to efficiently explore the full posterior space allows the model uncertainty to be easily assessed and the underlying graph to be determined via a novel posterior false discovery rate control procedure. The decomposition also crucially allows us to adapt sparsity inducing priors to shrink insignificant off-diagonal entries toward zero, making the approach adaptable to high-dimensional small-sample-size sparse settings. We evaluate the method's empirical performance through synthetic experiments and illustrate its practical utility in data sets from two different application domains.


翻译:Gausian 图形模型是研究不同随机变量之间依赖关系的流行工具。 我们建议对 Gausian 图形模型采用一种新颖的方法,该方法依赖于将精确矩阵将有条件的独立关系编码成低级和对角元组成部分的精确矩阵。 这种分解对于模拟大型共变矩阵来说已经很受欢迎,因为它们承认了一个基于潜在要素的表达方式,它容易推导,但因其可计算性而尚未在精确矩阵模型中广泛使用。 我们表明,对于精确矩阵事实上的分解存在一个简单的潜在变量代表形式。 潜在变量的构造为高山地区图形模型提供了根本的新颖的洞见。 在巴伊西亚环境环境中,这种分解对于通过直观的Gib采样器实现高效的远比对远超出当前状态界限的高维值推断也非常有用。 高效地探索整个后方空间的能力使得模型的不确定性很容易被评估,而基本图表则通过新式的子表层发现率率控制程序来确定。 隐含变量的构造也非常关键地让我们通过一个直接的Gaustial imal intal intal intal intal intal imprestistration compal impact compact compeal view viewmental degradudududududududucalmentalmentalmental labal violtical

0
下载
关闭预览

相关内容

剑桥大学《数据科学: 原理与实践》课程,附PPT下载
专知会员服务
49+阅读 · 2021年1月20日
专知会员服务
50+阅读 · 2020年12月14日
【干货书】机器学习速查手册,135页pdf
专知会员服务
125+阅读 · 2020年11月20日
专知会员服务
42+阅读 · 2020年7月29日
因果图,Causal Graphs,52页ppt
专知会员服务
246+阅读 · 2020年4月19日
强化学习最新教程,17页pdf
专知会员服务
174+阅读 · 2019年10月11日
2019年机器学习框架回顾
专知会员服务
35+阅读 · 2019年10月11日
机器学习入门的经验与建议
专知会员服务
92+阅读 · 2019年10月10日
【哈佛大学商学院课程Fall 2019】机器学习可解释性
专知会员服务
103+阅读 · 2019年10月9日
【论文笔记】通俗理解少样本文本分类 (Few-Shot Text Classification) (1)
深度学习自然语言处理
7+阅读 · 2020年4月8日
逆强化学习-学习人先验的动机
CreateAMind
15+阅读 · 2019年1月18日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
16+阅读 · 2018年12月24日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
【论文】变分推断(Variational inference)的总结
机器学习研究会
39+阅读 · 2017年11月16日
【推荐】免费书(草稿):数据科学的数学基础
机器学习研究会
20+阅读 · 2017年10月1日
【学习】Hierarchical Softmax
机器学习研究会
4+阅读 · 2017年8月6日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
Bayesian Attention Belief Networks
Arxiv
9+阅读 · 2021年6月9日
Arxiv
3+阅读 · 2017年12月14日
VIP会员
相关VIP内容
剑桥大学《数据科学: 原理与实践》课程,附PPT下载
专知会员服务
49+阅读 · 2021年1月20日
专知会员服务
50+阅读 · 2020年12月14日
【干货书】机器学习速查手册,135页pdf
专知会员服务
125+阅读 · 2020年11月20日
专知会员服务
42+阅读 · 2020年7月29日
因果图,Causal Graphs,52页ppt
专知会员服务
246+阅读 · 2020年4月19日
强化学习最新教程,17页pdf
专知会员服务
174+阅读 · 2019年10月11日
2019年机器学习框架回顾
专知会员服务
35+阅读 · 2019年10月11日
机器学习入门的经验与建议
专知会员服务
92+阅读 · 2019年10月10日
【哈佛大学商学院课程Fall 2019】机器学习可解释性
专知会员服务
103+阅读 · 2019年10月9日
相关资讯
【论文笔记】通俗理解少样本文本分类 (Few-Shot Text Classification) (1)
深度学习自然语言处理
7+阅读 · 2020年4月8日
逆强化学习-学习人先验的动机
CreateAMind
15+阅读 · 2019年1月18日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
16+阅读 · 2018年12月24日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
【论文】变分推断(Variational inference)的总结
机器学习研究会
39+阅读 · 2017年11月16日
【推荐】免费书(草稿):数据科学的数学基础
机器学习研究会
20+阅读 · 2017年10月1日
【学习】Hierarchical Softmax
机器学习研究会
4+阅读 · 2017年8月6日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
Top
微信扫码咨询专知VIP会员