Characterising intractable high-dimensional random variables is one of the fundamental challenges in stochastic computation. The recent surge of transport maps offers a mathematical foundation and new insights for tackling this challenge by coupling intractable random variables with tractable reference random variables. This paper generalises the functional tensor-train approximation of the inverse Rosenblatt transport recently developed by Dolgov et al. (Stat Comput 30:603--625, 2020) to a wide class of high-dimensional non-negative functions, such as unnormalised probability density functions. First, we extend the inverse Rosenblatt transform to enable the transport to general reference measures other than the uniform measure. We develop an efficient procedure to compute this transport from a squared tensor-train decomposition which preserves the monotonicity. More crucially, we integrate the proposed order-preserving functional tensor-train transport into a nested variable transformation framework inspired by the layered structure of deep neural networks. The resulting deep inverse Rosenblatt transport significantly expands the capability of tensor approximations and transport maps to random variables with complicated nonlinear interactions and concentrated density functions. We demonstrate the efficiency of the proposed approach on a range of applications in statistical learning and uncertainty quantification, including parameter estimation for dynamical systems and inverse problems constrained by partial differential equations.


翻译:高维随机变量具有棘手特性,这是在随机计算中的根本挑战之一。最近运输图的激增提供了数学基础和新的洞察力,通过将棘手随机变量与可移动参考随机变量结合起来,应对这一挑战。本文概括了Dolgov等人最近开发的Rosenblat运输逆向(Stat Compuut 30:603-625,2020) 的功能高维随机变量近似近似值,并将其整合到由深神经网络的层结构所激励的广度非负性功能中。首先,我们扩展了 Rosenblatt 的逆向转换,使运输能够采用除统一计量以外的一般参考措施。我们开发了一个高效程序,将这种运输从保护单调的正方形高压分解位置(Sattatt Comput 30:603- 625,2020) 的功能拉特值近于功能,将其整合到一个由深层神经网络结构所激励的嵌套化的可变式变形框架。由此而导致的深层罗森布拉特运输大幅扩展变换,从而大大扩展了色部分转换能力,从而扩大了扩大了了调度和运输地图的功能,从而扩大了地扩大了了用于了在统计性变异变异度分析系统中的系统中,我们展示了变的系统,并展示了对等的系统。我们展示了对等度的系统,以比较性变式变式变式的系统,以比较性变式变式变式变式变式变式变式变式变式计算。

0
下载
关闭预览

相关内容

专知会员服务
97+阅读 · 2021年8月16日
【Cell】神经算法推理,Neural algorithmic reasoning
专知会员服务
28+阅读 · 2021年7月16日
神经网络的拓扑结构,TOPOLOGY OF DEEP NEURAL NETWORKS
专知会员服务
31+阅读 · 2020年4月15日
【SIGGRAPH2019】TensorFlow 2.0深度学习计算机图形学应用
专知会员服务
39+阅读 · 2019年10月9日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
27+阅读 · 2019年5月18日
动物脑的好奇心和强化学习的好奇心
CreateAMind
10+阅读 · 2019年1月26日
逆强化学习-学习人先验的动机
CreateAMind
15+阅读 · 2019年1月18日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
Disentangled的假设的探讨
CreateAMind
9+阅读 · 2018年12月10日
Highway Networks For Sentence Classification
哈工大SCIR
4+阅读 · 2017年9月30日
强化学习 cartpole_a3c
CreateAMind
9+阅读 · 2017年7月21日
Arxiv
0+阅读 · 2021年10月20日
VIP会员
相关资讯
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
27+阅读 · 2019年5月18日
动物脑的好奇心和强化学习的好奇心
CreateAMind
10+阅读 · 2019年1月26日
逆强化学习-学习人先验的动机
CreateAMind
15+阅读 · 2019年1月18日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
Disentangled的假设的探讨
CreateAMind
9+阅读 · 2018年12月10日
Highway Networks For Sentence Classification
哈工大SCIR
4+阅读 · 2017年9月30日
强化学习 cartpole_a3c
CreateAMind
9+阅读 · 2017年7月21日
Top
微信扫码咨询专知VIP会员