This paper deals with the problem of efficient sampling from a stochastic differential equation, given the drift function and the diffusion matrix. The proposed approach leverages a recent model for probabilities \citep{rudi2021psd} (the positive semi-definite -- PSD model) from which it is possible to obtain independent and identically distributed (i.i.d.) samples at precision $\varepsilon$ with a cost that is $m^2 d \log(1/\varepsilon)$ where $m$ is the dimension of the model, $d$ the dimension of the space. The proposed approach consists in: first, computing the PSD model that satisfies the Fokker-Planck equation (or its fractional variant) associated with the SDE, up to error $\varepsilon$, and then sampling from the resulting PSD model. Assuming some regularity of the Fokker-Planck solution (i.e. $\beta$-times differentiability plus some geometric condition on its zeros) We obtain an algorithm that: (a) in the preparatory phase obtains a PSD model with L2 distance $\varepsilon$ from the solution of the equation, with a model of dimension $m = \varepsilon^{-(d+1)/(\beta-2s)} (\log(1/\varepsilon))^{d+1}$ where $0<s\leq1$ is the fractional power to the Laplacian, and total computational complexity of $O(m^{3.5} \log(1/\varepsilon))$ and then (b) for Fokker-Planck equation, it is able to produce i.i.d.\ samples with error $\varepsilon$ in Wasserstein-1 distance, with a cost that is $O(d \varepsilon^{-2(d+1)/\beta-2} \log(1/\varepsilon)^{2d+3})$ per sample. This means that, if the probability associated with the SDE is somewhat regular, i.e. $\beta \geq 4d+2$, then the algorithm requires $O(\varepsilon^{-0.88} \log(1/\varepsilon)^{4.5d})$ in the preparatory phase, and $O(\varepsilon^{-1/2}\log(1/\varepsilon)^{2d+2})$ for each sample. Our results suggest that as the true solution gets smoother, we can circumvent the curse of dimensionality without requiring any sort of convexity.


翻译:本文涉及从随机微分方程(SDE)中高效采样的问题,给定漂移函数和扩散矩阵。所提出的方法利用了最近的概率模型——PSD模型————可以在精度$\varepsilon$下获得独立同分布的(i.i.d)样本,成本为$m^2 d\log(1/ \varepsilon)$,其中 m 是模型的维度,d 是空间的维度。所提出的方法包括:首先计算满足SDE相关的Fock-Planck方程(或其分数变体)的PSD模型,误差为$\varepsilon$,然后从导出的PSD模型中采样。假设Fock-Planck解具有一定的正则性(即$\beta$阶可微加上一些其零点的几何条件),得到一个算法:(a)在准备阶段,获得满足方程解的L2距离为$\varepsilon$的PSD模型, ,其模型维数为$m=\varepsilon^{-(d+1)/(\beta-2s)}(\log(1/\varepsilon))^{d+1}$,总计算复杂性为$O(m^{3.5} \log(1/\varepsilon))$,然后(b) 对于 Fock-Planck方程,能够按照Wasserstein-1距离以误差$\varepsilon$生成i.i.d样本,每个采样的成本为 $O(d \varepsilon^{-2(d+1)/\beta-2} \log(1/\varepsilon)^{2d+3})$。这意味着,如果与SDE相关的概率具有一定的正则性,即$\beta \geq 4d+2$,则算法需要$O(\varepsilon^{-0.88} \log(1/\varepsilon)^{4.5d})$的准备阶段,并且每个采样需要$O(\varepsilon^{-1/2}\log(1/\varepsilon)^{2d+2})$。我们的结果表明,随着真实解的光滑度提高,我们可以规避维数灾难,而无需任何凸性。

0
下载
关闭预览

相关内容

专知会员服务
13+阅读 · 2021年10月9日
专知会员服务
50+阅读 · 2020年12月14日
深度自进化聚类:Deep Self-Evolution Clustering
我爱读PAMI
15+阅读 · 2019年4月13日
逆强化学习-学习人先验的动机
CreateAMind
15+阅读 · 2019年1月18日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
16+阅读 · 2018年12月24日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
详解常见的损失函数
七月在线实验室
20+阅读 · 2018年7月12日
【论文】变分推断(Variational inference)的总结
机器学习研究会
39+阅读 · 2017年11月16日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
Arxiv
0+阅读 · 2023年5月19日
Arxiv
0+阅读 · 2023年5月19日
Arxiv
0+阅读 · 2023年5月16日
VIP会员
相关VIP内容
专知会员服务
13+阅读 · 2021年10月9日
专知会员服务
50+阅读 · 2020年12月14日
相关基金
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
Top
微信扫码咨询专知VIP会员