It is difficult to use subsampling with variational inference in hierarchical models since the number of local latent variables scales with the dataset. Thus, inference in hierarchical models remains a challenge at large scale. It is helpful to use a variational family with structure matching the posterior, but optimization is still slow due to the huge number of local distributions. Instead, this paper suggests an amortized approach where shared parameters simultaneously represent all local distributions. This approach is similarly accurate as using a given joint distribution (e.g., a full-rank Gaussian) but is feasible on datasets that are several orders of magnitude larger. It is also dramatically faster than using a structured variational distribution.


翻译:由于数据集中本地潜伏变量比例表的数量,因此很难在等级模型中以可变的推论进行子取样,因为数据组中存在本地潜伏变量比例表。 因此,等级模型中的推论仍是一个巨大的挑战。 使用结构与后方相匹配的变式组合很有帮助, 但由于本地分布数量巨大,优化仍然缓慢。 相反,本文建议采用摊销法, 共享参数同时代表所有本地分布。 这种方法与使用特定联合分布( 如全级高斯) 类似, 但对于多个数量级较大的数据集来说是可行的。 也比使用结构化的变式分布要快得多 。

0
下载
关闭预览

相关内容

因果推断,Causal Inference:The Mixtape
专知会员服务
103+阅读 · 2021年8月27日
【KDD2021】图神经网络,NUS- Xavier Bresson教授
专知会员服务
62+阅读 · 2021年8月20日
专知会员服务
14+阅读 · 2021年5月21日
自动结构变分推理,Automatic structured variational inference
专知会员服务
38+阅读 · 2020年2月10日
Hierarchically Structured Meta-learning
CreateAMind
23+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
25+阅读 · 2019年5月18日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
Hierarchical Imitation - Reinforcement Learning
CreateAMind
19+阅读 · 2018年5月25日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
【论文】变分推断(Variational inference)的总结
机器学习研究会
39+阅读 · 2017年11月16日
【学习】Hierarchical Softmax
机器学习研究会
4+阅读 · 2017年8月6日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
Arxiv
6+阅读 · 2020年10月8日
Arxiv
3+阅读 · 2018年8月17日
Arxiv
6+阅读 · 2018年1月29日
Arxiv
3+阅读 · 2018年1月10日
VIP会员
相关资讯
Top
微信扫码咨询专知VIP会员