Many tools are available to bound the convergence rate of Markov chains in total variation (TV) distance. Such results can be used to establish central limit theorems (CLT) that enable error evaluations of Monte Carlo estimates in practice. However, convergence analysis based on TV distance is often non-scalable to high-dimensional Markov chains (Qin and Hobert (2018); Rajaratnam and Sparks (2015)). Alternatively, robust bounds in Wasserstein distance are often easier to obtain, thanks to a coupling argument. Our work is concerned with the implication of such convergence results, in particular, do they lead to CLTs of the corresponding Markov chains? One indirect and typically non-trivial way is to first convert Wasserstein bounds into total variation bounds. Alternatively, we provide two CLTs that directly depend on (sub-geometric) convergence rates in Wasserstein distance. Our CLTs hold for Lipschitz functions under certain moment conditions. We also present two possible ways to lift obtained CLTs to a larger weighted Lipschitz class of functions. We further take an analytic route to obtain CLTs for a weighted Sobolev class based on $W_2$ convergence. Finally, we apply these CLTs to four sets of Markov chain examples including a class of nonlinear autoregressive processes, an exponential integrator version of the metropolis adjusted Langevin algorithm (EI-MALA), an unadjusted Langevin algorithm (ULA), and a special autoregressive model that generates reducible chains.


翻译:现有多种工具可用于界定马尔可夫链在总变差距离下的收敛速率。此类结果可用于建立中心极限定理,从而在实际中评估蒙特卡洛估计的误差。然而,基于总变差距离的收敛分析往往难以扩展至高维马尔可夫链(Qin与Hobert (2018);Rajaratnam与Sparks (2015))。作为替代方案,得益于耦合论证,Wasserstein距离下的鲁棒性界通常更易获得。本文关注此类收敛结果的推论,特别是其是否能够导出相应马尔可夫链的中心极限定理?一种间接且通常非平凡的方法是将Wasserstein界转换为总变差界。作为替代,我们提出了两个直接依赖于Wasserstein距离(次几何)收敛速率的中心极限定理。这些中心极限定理在特定矩条件下适用于Lipschitz函数。我们还提出了两种将所得中心极限定理提升至更大加权Lipschitz函数类的可能途径。进一步地,我们通过解析方法,基于$W_2$收敛获得了加权Sobolev函数类的中心极限定理。最后,我们将这些中心极限定理应用于四组马尔可夫链示例,包括一类非线性自回归过程、Metropolis调整Langevin算法的指数积分器变体、未调整Langevin算法,以及一类生成可约链的特殊自回归模型。

0
下载
关闭预览

相关内容

FlowQA: Grasping Flow in History for Conversational Machine Comprehension
专知会员服务
34+阅读 · 2019年10月18日
Stabilizing Transformers for Reinforcement Learning
专知会员服务
60+阅读 · 2019年10月17日
Transferring Knowledge across Learning Processes
CreateAMind
29+阅读 · 2019年5月18日
Unsupervised Learning via Meta-Learning
CreateAMind
44+阅读 · 2019年1月3日
STRCF for Visual Object Tracking
统计学习与视觉计算组
15+阅读 · 2018年5月29日
Focal Loss for Dense Object Detection
统计学习与视觉计算组
12+阅读 · 2018年3月15日
IJCAI | Cascade Dynamics Modeling with Attention-based RNN
KingsGarden
13+阅读 · 2017年7月16日
国家自然科学基金
13+阅读 · 2017年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
VIP会员
相关资讯
Transferring Knowledge across Learning Processes
CreateAMind
29+阅读 · 2019年5月18日
Unsupervised Learning via Meta-Learning
CreateAMind
44+阅读 · 2019年1月3日
STRCF for Visual Object Tracking
统计学习与视觉计算组
15+阅读 · 2018年5月29日
Focal Loss for Dense Object Detection
统计学习与视觉计算组
12+阅读 · 2018年3月15日
IJCAI | Cascade Dynamics Modeling with Attention-based RNN
KingsGarden
13+阅读 · 2017年7月16日
相关基金
国家自然科学基金
13+阅读 · 2017年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
Top
微信扫码咨询专知VIP会员