Gaussian variational approximation is a popular methodology to approximate posterior distributions in Bayesian inference especially in high dimensional and large data settings. To control the computational cost while being able to capture the correlations among the variables, the low rank plus diagonal structure was introduced in the previous literature for the Gaussian covariance matrix. For a specific Bayesian learning task, the uniqueness of the solution is usually ensured by imposing stringent constraints on the parameterized covariance matrix, which could break down during the optimization process. In this paper, we consider two special covariance structures by applying the Stiefel manifold and Grassmann manifold constraints, to address the optimization difficulty in such factorization architectures. To speed up the updating process with minimum hyperparameter-tuning efforts, we design two new schemes of Riemannian stochastic gradient descent methods and compare them with other existing methods of optimizing on manifolds. In addition to fixing the identification issue, results from both simulation and empirical experiments prove the ability of the proposed methods of obtaining competitive accuracy and comparable converge speed in both high-dimensional and large-scale learning tasks.


翻译:Gausian 变差近似近似值是一种常用的方法,用于在贝耶斯的推论中,特别是在高维和大数据设置中,近似后部分布。为了控制计算成本,同时能够捕捉变数之间的相互关系,在以前的文献中为戈萨共变矩阵采用了低等加对角结构。对于一个具体的巴耶斯学习任务,解决办法的独特性通常通过对参数化共变矩阵施加严格的限制来确保,这种限制在优化过程中可能会破裂。在本文中,我们考虑采用两个特殊的共变差结构,即施蒂费尔多重和格拉斯曼多重限制,以解决这种因子化结构中的优化困难。为了加快更新进程,我们用最低限度的超光量调整努力,我们设计了两种新办法,即里曼式的Stochacisic梯度脱底法方法,并将其与其他现有优化的多元方法进行比较。除了确定识别问题外,模拟和实验实验的结果证明,拟议的方法有能力在高维和大型学习任务中取得竞争性的准确性和可比的趋同速度。

0
下载
关闭预览

相关内容

剑桥大学《数据科学: 原理与实践》课程,附PPT下载
专知会员服务
49+阅读 · 2021年1月20日
专知会员服务
42+阅读 · 2020年12月18日
专知会员服务
50+阅读 · 2020年12月14日
【哈佛大学商学院课程Fall 2019】机器学习可解释性
专知会员服务
103+阅读 · 2019年10月9日
MIT新书《强化学习与最优控制》
专知会员服务
275+阅读 · 2019年10月9日
【资源】语音增强资源集锦
专知
8+阅读 · 2020年7月4日
Transferring Knowledge across Learning Processes
CreateAMind
27+阅读 · 2019年5月18日
19篇ICML2019论文摘录选读!
专知
28+阅读 · 2019年4月28日
逆强化学习-学习人先验的动机
CreateAMind
15+阅读 · 2019年1月18日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
【论文】变分推断(Variational inference)的总结
机器学习研究会
39+阅读 · 2017年11月16日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
Arxiv
0+阅读 · 2021年6月1日
Arxiv
0+阅读 · 2021年5月28日
VIP会员
Top
微信扫码咨询专知VIP会员