Bayesian modelling enables us to accommodate complex forms of data and make a comprehensive inference, but the effect of partial misspecification of the model is a concern. One approach in this setting is to modularize the model, and prevent feedback from suspect modules, using a cut model. After observing data, this leads to the cut distribution which normally does not have a closed-form. Previous studies have proposed algorithms to sample from this distribution, but these algorithms have unclear theoretical convergence properties. To address this, we propose a new algorithm called the Stochastic Approximation Cut algorithm (SACut) as an alternative. The algorithm is divided into two parallel chains. The main chain targets an approximation to the cut distribution; the auxiliary chain is used to form an adaptive proposal distribution for the main chain. We prove convergence of the samples drawn by the proposed algorithm and present the exact limit. Although SACut is biased, since the main chain does not target the exact cut distribution, we prove this bias can be reduced geometrically by increasing a user-chosen tuning parameter. In addition, parallel computing can be easily adopted for SACut, which greatly reduces computation time.


翻译:Bayesian 建模使我们能够容纳复杂的数据形式,并做出全面的推断,但模型的局部偏差效果是一个令人关切的问题。在这种环境下,一种方法是模块化模型,并使用切割模型防止可疑模块的反馈。在观察数据后,这导致了通常没有封闭式的剪切分布。以前的研究提出了从这种分布中取样的算法,但这些算法在理论上具有不明确的趋同性。为了解决这个问题,我们提议了一种新的算法,称为Stochastic Approximation Cut 算法(SACut),作为替代法。算法分为两个平行链。主要链条的目标是接近切割分布;辅助链用于形成主链的适应性建议分布。我们证明由拟议的算法所抽取的样本的趋同性,并提出了确切的限度。虽然SACut是偏向性的,但是由于主链并不针对确切的切割分布,因此我们证明这种偏差可以通过增加用户选择的调算参数来减少几何学上的偏差。此外,平行计算可以很容易为SACut 大大缩短计算时间。

0
下载
关闭预览

相关内容

【干货书】数据科学手册,456页pdf
专知会员服务
151+阅读 · 2021年4月27日
【干货书】机器学习速查手册,135页pdf
专知会员服务
126+阅读 · 2020年11月20日
专知会员服务
124+阅读 · 2020年9月8日
【经典书】贝叶斯编程,378页pdf,Bayesian Programming
专知会员服务
249+阅读 · 2020年5月18日
【干货书】数值计算C编程,319页pdf,Numerical C
专知会员服务
69+阅读 · 2020年4月7日
自动结构变分推理,Automatic structured variational inference
专知会员服务
40+阅读 · 2020年2月10日
SIGIR2019 接收论文列表
专知
18+阅读 · 2019年4月20日
逆强化学习-学习人先验的动机
CreateAMind
16+阅读 · 2019年1月18日
强化学习的Unsupervised Meta-Learning
CreateAMind
18+阅读 · 2019年1月7日
神经网络学习率设置
机器学习研究会
4+阅读 · 2018年3月3日
条件GAN重大改进!cGANs with Projection Discriminator
CreateAMind
8+阅读 · 2018年2月7日
【论文】变分推断(Variational inference)的总结
机器学习研究会
39+阅读 · 2017年11月16日
【推荐】GAN架构入门综述(资源汇总)
机器学习研究会
10+阅读 · 2017年9月3日
【学习】Hierarchical Softmax
机器学习研究会
4+阅读 · 2017年8月6日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
强化学习族谱
CreateAMind
26+阅读 · 2017年8月2日
VIP会员
相关VIP内容
【干货书】数据科学手册,456页pdf
专知会员服务
151+阅读 · 2021年4月27日
【干货书】机器学习速查手册,135页pdf
专知会员服务
126+阅读 · 2020年11月20日
专知会员服务
124+阅读 · 2020年9月8日
【经典书】贝叶斯编程,378页pdf,Bayesian Programming
专知会员服务
249+阅读 · 2020年5月18日
【干货书】数值计算C编程,319页pdf,Numerical C
专知会员服务
69+阅读 · 2020年4月7日
自动结构变分推理,Automatic structured variational inference
专知会员服务
40+阅读 · 2020年2月10日
相关资讯
SIGIR2019 接收论文列表
专知
18+阅读 · 2019年4月20日
逆强化学习-学习人先验的动机
CreateAMind
16+阅读 · 2019年1月18日
强化学习的Unsupervised Meta-Learning
CreateAMind
18+阅读 · 2019年1月7日
神经网络学习率设置
机器学习研究会
4+阅读 · 2018年3月3日
条件GAN重大改进!cGANs with Projection Discriminator
CreateAMind
8+阅读 · 2018年2月7日
【论文】变分推断(Variational inference)的总结
机器学习研究会
39+阅读 · 2017年11月16日
【推荐】GAN架构入门综述(资源汇总)
机器学习研究会
10+阅读 · 2017年9月3日
【学习】Hierarchical Softmax
机器学习研究会
4+阅读 · 2017年8月6日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
强化学习族谱
CreateAMind
26+阅读 · 2017年8月2日
Top
微信扫码咨询专知VIP会员