We introduce Pathfinder, a variational method for approximately sampling from differentiable log densities. Starting from a random initialization, Pathfinder locates normal approximations to the target density along a quasi-Newton optimization path, with local covariance estimated using the inverse Hessian estimates produced by the optimizer. Pathfinder returns draws from the approximation with the lowest estimated Kullback-Leibler (KL) divergence to the true posterior. We evaluate Pathfinder on a wide range of posterior distributions, demonstrating that its approximate draws are better than those from automatic differentiation variational inference (ADVI) and comparable to those produced by short chains of dynamic Hamiltonian Monte Carlo (HMC), as measured by 1-Wasserstein distance. Compared to ADVI and short dynamic HMC runs, Pathfinder requires one to two orders of magnitude fewer log density and gradient evaluations, with greater reductions for more challenging posteriors. Importance resampling over multiple runs of Pathfinder improves the diversity of approximate draws, reducing 1-Wasserstein distance further and providing a measure of robustness to optimization failures on plateaus, saddle points, or in minor modes. The Monte Carlo KL-divergence estimates are embarrassingly parallelizable in the core Pathfinder algorithm, as are multiple runs in the resampling version, further increasing Pathfinder's speed advantage with multiple cores.


翻译:我们引入了“ 引导器 ”, 这是一种从不同日志密度进行大致抽样的变异方法。 从随机初始化开始, 引导器在准牛顿优化路径上将正常近似点定位到目标密度, 在准牛顿优化路径上将目标密度定位为正常近似点, 使用优化者生成的逆向黑森估计值进行本地共变估算。 引导器的返回从最低估计 Kllback- Leiber (KL) 偏差的近似点提取到真实的远端。 我们从最低估计的 Kllback- Leibel (KL) 与真实的远端值估算值相比, 我们从最低估计的 Kullback- Leiber (KL) 和真正的后端值的偏差值取来。 我们从一系列后端分布的“ ” 评估中评估“, 显示其近端分布优于自动差异变异感( ADDVI) 的近点, 并且比由动态汉密尔顿· 蒙特卡洛(HMC) 的短路路段短路段产生的短路段 。,, 方向的软缩缩缩缩缩缩缩缩缩为方向的误。

0
下载
关闭预览

相关内容

专知会员服务
75+阅读 · 2021年7月23日
专知会员服务
52+阅读 · 2020年9月7日
Fariz Darari简明《博弈论Game Theory》介绍,35页ppt
专知会员服务
106+阅读 · 2020年5月15日
强化学习最新教程,17页pdf
专知会员服务
167+阅读 · 2019年10月11日
使用vae与sac实现简单自动驾驶
CreateAMind
9+阅读 · 2019年6月6日
Transferring Knowledge across Learning Processes
CreateAMind
25+阅读 · 2019年5月18日
19篇ICML2019论文摘录选读!
专知
28+阅读 · 2019年4月28日
逆强化学习-学习人先验的动机
CreateAMind
15+阅读 · 2019年1月18日
【强化学习炼金术】李飞飞高徒带你一文读懂RL来龙去脉
黑龙江大学自然语言处理实验室
3+阅读 · 2018年1月8日
【论文】变分推断(Variational inference)的总结
机器学习研究会
39+阅读 · 2017年11月16日
Adversarial Variational Bayes: Unifying VAE and GAN 代码
CreateAMind
7+阅读 · 2017年10月4日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
强化学习族谱
CreateAMind
26+阅读 · 2017年8月2日
强化学习 cartpole_a3c
CreateAMind
9+阅读 · 2017年7月21日
Arxiv
0+阅读 · 2021年10月10日
Arxiv
0+阅读 · 2021年10月7日
Arxiv
1+阅读 · 2021年10月7日
Arxiv
7+阅读 · 2018年3月17日
Arxiv
3+阅读 · 2018年1月10日
VIP会员
相关资讯
使用vae与sac实现简单自动驾驶
CreateAMind
9+阅读 · 2019年6月6日
Transferring Knowledge across Learning Processes
CreateAMind
25+阅读 · 2019年5月18日
19篇ICML2019论文摘录选读!
专知
28+阅读 · 2019年4月28日
逆强化学习-学习人先验的动机
CreateAMind
15+阅读 · 2019年1月18日
【强化学习炼金术】李飞飞高徒带你一文读懂RL来龙去脉
黑龙江大学自然语言处理实验室
3+阅读 · 2018年1月8日
【论文】变分推断(Variational inference)的总结
机器学习研究会
39+阅读 · 2017年11月16日
Adversarial Variational Bayes: Unifying VAE and GAN 代码
CreateAMind
7+阅读 · 2017年10月4日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
强化学习族谱
CreateAMind
26+阅读 · 2017年8月2日
强化学习 cartpole_a3c
CreateAMind
9+阅读 · 2017年7月21日
Top
微信扫码咨询专知VIP会员