We establish upper bounds for the $L^p$-quantization error, p in (1, 2+d), induced by the recursive Markovian quantization of a d-dimensional diffusion discretized via the Euler scheme. We introduce a hybrid recursive quantization scheme, easier to implement in the high-dimensional framework, and establish upper bounds to the corresponding $L^p$-quantization error. To take advantage of these extensions, we propose a time discretization scheme and a recursive quantization-based discretization scheme associated to a reflected Backward Stochastic Differential Equation and estimate $L^p$-error bounds induced by the space approximation. We will explain how to numerically compute the solution of the reflected BSDE relying on the recursive quantization and compare it to other types of quantization.


翻译:我们为$L ⁇ p$-量化错误设定了上限, p in (1, 2+d),这是由通过 Euler 方案分离的二维扩散的递回式 Markovian 量化法引发的。 我们引入了混合递回量化办法, 更容易在高维框架内实施, 并且为相应的 $L ⁇ p$-量化错误设定上限。 为了利用这些扩展, 我们提议了一个时间分解办法和基于递回量化的离异办法, 与空间近似所引发的反反向托盘差异和估计 $L ⁇ p$- error 界限相关联。 我们将解释如何用数字计算反射 BSDE 的解决方案, 依赖递回式量化, 并将其与其他类型的量化比较 。

0
下载
关闭预览

相关内容

DARPA可解释人工智能
专知会员服务
131+阅读 · 2020年12月22日
专知会员服务
51+阅读 · 2020年12月14日
Hierarchically Structured Meta-learning
CreateAMind
27+阅读 · 2019年5月22日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
18+阅读 · 2018年12月24日
OpenAI丨深度强化学习关键论文列表
中国人工智能学会
17+阅读 · 2018年11月10日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
VIP会员
相关资讯
Hierarchically Structured Meta-learning
CreateAMind
27+阅读 · 2019年5月22日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
18+阅读 · 2018年12月24日
OpenAI丨深度强化学习关键论文列表
中国人工智能学会
17+阅读 · 2018年11月10日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
Top
微信扫码咨询专知VIP会员