Stabilized explicit methods are particularly efficient for large systems of stiff stochastic differential equations (SDEs) due to their extended stability domain. However, they loose their efficiency when a severe stiffness is induced by very few "fast" degrees of freedom, as the stiff and nonstiff terms are evaluated concurrently. Therefore, inspired by [A. Abdulle, M. J. Grote, and G. Rosilho de Souza, Preprint (2020), arXiv:2006.00744] we introduce a stochastic modified equation whose stiffness depends solely on the "slow" terms. By integrating this modified equation with a stabilized explicit scheme we devise a multirate method which overcomes the bottleneck caused by a few severely stiff terms and recovers the efficiency of stabilized schemes for large systems of nonlinear SDEs. The scheme is not based on any scale separation assumption of the SDE and therefore it is employable for problems stemming from the spatial discretization of stochastic parabolic partial differential equations on locally refined grids. The multirate scheme has strong order 1/2, weak order 1 and its stability is proved on a model problem. Numerical experiments confirm the efficiency and accuracy of the scheme.


翻译:稳定明确的方法对于大型硬随机差异方程式(SDEs)来说特别有效,因为它们具有广泛的稳定性域。然而,当严格僵硬性是由极少数“快”自由度引发的,因为硬性和非硬性条件同时被评估。因此,受[A.Abdulle、M.J.Grote和G.Rosilho de Souza,Preprint (202020年),arxiv:2006.00744]的启发,我们引入了一个经调整的软性方程式,其僵硬性完全取决于“低”条件。通过将这一经修改的方程式与稳定的明确方案相结合,我们设计了一种多率方法,克服少数严格条件造成的瓶颈,并恢复了非线性SDE大型系统稳定计划的效率。这个方法不是基于SDE的任何规模分离假设(SDE),因此,它可用于应对当地改良电网的随机偏差部分偏差方方程式的空间离析产生的问题。多率方案具有强的顺序1/2、弱性顺序1,其稳定性的实验方案在模型上证明了稳定性。

0
下载
关闭预览

相关内容

专知会员服务
52+阅读 · 2020年9月7日
金融时序预测中的深度学习方法:2005到2019
专知会员服务
166+阅读 · 2019年12月4日
Stabilizing Transformers for Reinforcement Learning
专知会员服务
58+阅读 · 2019年10月17日
鲁棒机器学习相关文献集
专知
8+阅读 · 2019年8月18日
强化学习三篇论文 避免遗忘等
CreateAMind
19+阅读 · 2019年5月24日
动物脑的好奇心和强化学习的好奇心
CreateAMind
10+阅读 · 2019年1月26日
逆强化学习-学习人先验的动机
CreateAMind
15+阅读 · 2019年1月18日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
Disentangled的假设的探讨
CreateAMind
9+阅读 · 2018年12月10日
vae 相关论文 表示学习 2
CreateAMind
6+阅读 · 2018年9月9日
【论文】变分推断(Variational inference)的总结
机器学习研究会
39+阅读 · 2017年11月16日
【论文】图上的表示学习综述
机器学习研究会
14+阅读 · 2017年9月24日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
Arxiv
0+阅读 · 2021年10月11日
Arxiv
6+阅读 · 2018年10月3日
VIP会员
相关资讯
鲁棒机器学习相关文献集
专知
8+阅读 · 2019年8月18日
强化学习三篇论文 避免遗忘等
CreateAMind
19+阅读 · 2019年5月24日
动物脑的好奇心和强化学习的好奇心
CreateAMind
10+阅读 · 2019年1月26日
逆强化学习-学习人先验的动机
CreateAMind
15+阅读 · 2019年1月18日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
Disentangled的假设的探讨
CreateAMind
9+阅读 · 2018年12月10日
vae 相关论文 表示学习 2
CreateAMind
6+阅读 · 2018年9月9日
【论文】变分推断(Variational inference)的总结
机器学习研究会
39+阅读 · 2017年11月16日
【论文】图上的表示学习综述
机器学习研究会
14+阅读 · 2017年9月24日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
Top
微信扫码咨询专知VIP会员