Given an unnormalized target distribution we want to obtain approximate samples from it and a tight lower bound on its (log) normalization constant log Z. Annealed Importance Sampling (AIS) with Hamiltonian MCMC is a powerful method that can be used to do this. Its main drawback is that it uses non-differentiable transition kernels, which makes tuning its many parameters hard. We propose a framework to use an AIS-like procedure with Uncorrected Hamiltonian MCMC, called Uncorrected Hamiltonian Annealing. Our method leads to tight and differentiable lower bounds on log Z. We show empirically that our method yields better performances than other competing approaches, and that the ability to tune its parameters using reparameterization gradients may lead to large performance improvements.


翻译:鉴于我们想要从它那里获得大约的样本,并且从它(log)正常化常数上严格下限,因此,我们想从它那里获得大约的样本,而对于它(log)正常化常数的日志 Z. Annaaled Streaty Sampling (AIS) 和 Hamiltonian MCMC (AIS) 来说,它是一个强大的方法,可以用来做到这一点。它的主要缺点是它使用非差别化的过渡内核,这使其许多参数难以调适。我们提议了一个框架,用一个类似AIS的程序来使用未经校正的汉密尔顿·安纳宁 MC (MMC) 。我们的方法导致日志Z 上严格和可区分的下限。我们从经验上表明,我们的方法比其他相互竞争的方法产生更好的性能,而使用重新补偿梯度来调节参数的能力可能会带来很大的性能改进。

0
下载
关闭预览

相关内容

【ICLR2022】Transformers亦能贝叶斯推断
专知会员服务
25+阅读 · 2021年12月23日
专知会员服务
45+阅读 · 2020年10月31日
因果图,Causal Graphs,52页ppt
专知会员服务
248+阅读 · 2020年4月19日
自动结构变分推理,Automatic structured variational inference
专知会员服务
40+阅读 · 2020年2月10日
深度强化学习策略梯度教程,53页ppt
专知会员服务
180+阅读 · 2020年2月1日
强化学习最新教程,17页pdf
专知会员服务
177+阅读 · 2019年10月11日
逆强化学习-学习人先验的动机
CreateAMind
16+阅读 · 2019年1月18日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
条件GAN重大改进!cGANs with Projection Discriminator
CreateAMind
8+阅读 · 2018年2月7日
【论文】变分推断(Variational inference)的总结
机器学习研究会
39+阅读 · 2017年11月16日
Adversarial Variational Bayes: Unifying VAE and GAN 代码
CreateAMind
7+阅读 · 2017年10月4日
【学习】Hierarchical Softmax
机器学习研究会
4+阅读 · 2017年8月6日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
Arxiv
5+阅读 · 2020年6月16日
Arxiv
5+阅读 · 2020年3月16日
Arxiv
3+阅读 · 2018年10月25日
Arxiv
11+阅读 · 2018年3月23日
Arxiv
3+阅读 · 2018年2月24日
Arxiv
5+阅读 · 2018年1月16日
Arxiv
12+阅读 · 2018年1月12日
Arxiv
4+阅读 · 2017年12月25日
VIP会员
相关资讯
逆强化学习-学习人先验的动机
CreateAMind
16+阅读 · 2019年1月18日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
条件GAN重大改进!cGANs with Projection Discriminator
CreateAMind
8+阅读 · 2018年2月7日
【论文】变分推断(Variational inference)的总结
机器学习研究会
39+阅读 · 2017年11月16日
Adversarial Variational Bayes: Unifying VAE and GAN 代码
CreateAMind
7+阅读 · 2017年10月4日
【学习】Hierarchical Softmax
机器学习研究会
4+阅读 · 2017年8月6日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
相关论文
Arxiv
5+阅读 · 2020年6月16日
Arxiv
5+阅读 · 2020年3月16日
Arxiv
3+阅读 · 2018年10月25日
Arxiv
11+阅读 · 2018年3月23日
Arxiv
3+阅读 · 2018年2月24日
Arxiv
5+阅读 · 2018年1月16日
Arxiv
12+阅读 · 2018年1月12日
Arxiv
4+阅读 · 2017年12月25日
Top
微信扫码咨询专知VIP会员