We consider the problem of estimating the probability of a large loss from a financial portfolio, where the future loss is expressed as a conditional expectation. Since the conditional expectation is intractable in most cases, one may resort to nested simulation. To reduce the complexity of nested simulation, we present a method that combines multilevel Monte Carlo (MLMC) and quasi-Monte Carlo (QMC). In the outer simulation, we use Monte Carlo to generate financial scenarios. In the inner simulation, we use QMC to estimate the portfolio loss in each scenario. We prove that using QMC can accelerate the convergence rates in both the crude nested simulation and the multilevel nested simulation. Under certain conditions, the complexity of MLMC can be reduced to $O(\epsilon^{-2}(\log \epsilon)^2)$ by incorporating QMC. On the other hand, we find that MLMC encounters catastrophic coupling problem due to the existence of indicator functions. To remedy this, we propose a smoothed MLMC method which uses logistic sigmoid functions to approximate indicator functions. Numerical results show that the optimal complexity $O(\epsilon^{-2})$ is almost attained when using QMC methods in both MLMC and smoothed MLMC, even in moderate high dimensions.


翻译:我们考虑的是估计从金融投资组合中蒙受巨大损失的可能性的问题,因为未来损失是有条件的预期。由于有条件的预期在多数情况下难以解决,人们可以采用嵌套模拟。为了降低嵌套模拟的复杂性,我们提出了一个将多层次蒙特卡洛(MLMC)和准蒙特卡洛(QMC)相结合的方法。在外部模拟中,我们使用蒙特卡洛(Monte Carlo)来产生财务假想。在内部模拟中,我们使用QMC来估计每个假设情景中的投资组合损失。我们证明,使用QMC可以加快粗嵌式模拟和多层次嵌套模拟的趋同率。在某些情况下,MLMC的复杂程度可以通过纳入QMC而降低到$O(\ epsilon ⁇ -2}(log \ epsilon)%2美元。另一方面,我们发现MLMC由于存在指标功能而遇到灾难性的联结问题。为了解决这个问题,我们建议一种平滑的MLMC方法,利用物流类比功能来接近指标功能。Numeralalalalalalalalal 的结果显示,在MMC中, 和MMML方法都达到了最高的复杂程度。

0
下载
关闭预览

相关内容

【干货书】机器学习速查手册,135页pdf
专知会员服务
125+阅读 · 2020年11月20日
Linux导论,Introduction to Linux,96页ppt
专知会员服务
77+阅读 · 2020年7月26日
Fariz Darari简明《博弈论Game Theory》介绍,35页ppt
专知会员服务
109+阅读 · 2020年5月15日
因果图,Causal Graphs,52页ppt
专知会员服务
246+阅读 · 2020年4月19日
机器学习入门的经验与建议
专知会员服务
92+阅读 · 2019年10月10日
已删除
将门创投
4+阅读 · 2020年1月6日
分布式并行架构Ray介绍
CreateAMind
9+阅读 · 2019年8月9日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Disentangled的假设的探讨
CreateAMind
9+阅读 · 2018年12月10日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
【学习】Hierarchical Softmax
机器学习研究会
4+阅读 · 2017年8月6日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
Arxiv
0+阅读 · 2021年1月7日
Arxiv
0+阅读 · 2021年1月6日
Learning to Importance Sample in Primary Sample Space
VIP会员
相关资讯
已删除
将门创投
4+阅读 · 2020年1月6日
分布式并行架构Ray介绍
CreateAMind
9+阅读 · 2019年8月9日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Disentangled的假设的探讨
CreateAMind
9+阅读 · 2018年12月10日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
【学习】Hierarchical Softmax
机器学习研究会
4+阅读 · 2017年8月6日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
Top
微信扫码咨询专知VIP会员