In this paper we revisit a two-level discretization based on the Localized Orthogonal Decomposition (LOD). It was originally proposed in [P.Henning, A.M{\aa}lqvist, D.Peterseim. SIAM J. Numer. Anal.52-4:1525-1550, 2014] to compute ground states of Bose-Einstein condensates by finding discrete minimizers of the Gross-Pitaevskii energy functional. The established convergence rates for the method appeared however suboptimal compared to numerical observations and a proof of optimal rates in this setting remained open. In this paper we shall close this gap by proving optimal order error estimates for the $L^2$- and $H^1$-error between the exact ground state and discrete minimizers, as well as error estimates for the ground state energy and the ground state eigenvalue. In particular, the achieved convergence rates for the energy and the eigenvalue are of $6$th order with respect to the mesh size on which the discrete LOD space is based, without making any additional regularity assumptions. These high rates justify the use of very coarse meshes, which significantly reduces the computational effort for finding accurate approximations of ground states. In addition, we include numerical experiments that confirm the optimality of the new theoretical convergence rates, both for smooth and discontinuous potentials.


翻译:在本文中,我们重新审视了一种基于局部正交分解(LOD)的双层离散化。它最初是由[P.Henning, A.M{\aa}lqvist, D.Peterseim. SIAM J. Numer. Anal.52-4:1525-1550, 2014]提出的,用于通过寻找Gross-Pitaevskii能量泛函的离散极小化来计算玻色-爱因斯坦冷凝体的基态。然而,该方法的建立的收敛速率与数值观察相比似乎是亚最优的,并且在这种情况下获得最优速率的证明仍然未能解决。在本文中,我们将通过证明拟合光滑势和不光滑势的精确基态和离散极小化之间的$L^2$误差和$H^1$误差的最优误差估计,以及基态能量和基态本征值的误差估计,来弥补这个差距。特别的,能量和本征值的实现收敛速率都是6阶,关于离散LOD空间的网格尺寸,而不会进行任何额外的规则性假设。这些高速率证明了使用非常粗糙的网格是有合理性的,这显著降低了寻找准确的基态近似的计算工作量。此外,我们包括对光滑和不连续势的数值实验证实了新的理论收敛速率的最优性。

0
下载
关闭预览

相关内容

【硬核书】稀疏多项式优化:理论与实践,220页pdf
专知会员服务
68+阅读 · 2022年9月30日
机器学习组合优化
专知会员服务
109+阅读 · 2021年2月16日
专知会员服务
50+阅读 · 2020年12月14日
【Google】平滑对抗训练,Smooth Adversarial Training
专知会员服务
48+阅读 · 2020年7月4日
DeepMind开源最牛无监督学习BigBiGAN预训练模型
新智元
10+阅读 · 2019年10月10日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
28+阅读 · 2019年5月18日
逆强化学习-学习人先验的动机
CreateAMind
15+阅读 · 2019年1月18日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
17+阅读 · 2018年12月24日
【论文】变分推断(Variational inference)的总结
机器学习研究会
39+阅读 · 2017年11月16日
【推荐】RNN/LSTM时序预测
机器学习研究会
25+阅读 · 2017年9月8日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
Arxiv
0+阅读 · 2023年5月30日
VIP会员
相关VIP内容
相关资讯
DeepMind开源最牛无监督学习BigBiGAN预训练模型
新智元
10+阅读 · 2019年10月10日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
28+阅读 · 2019年5月18日
逆强化学习-学习人先验的动机
CreateAMind
15+阅读 · 2019年1月18日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
17+阅读 · 2018年12月24日
【论文】变分推断(Variational inference)的总结
机器学习研究会
39+阅读 · 2017年11月16日
【推荐】RNN/LSTM时序预测
机器学习研究会
25+阅读 · 2017年9月8日
相关基金
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
Top
微信扫码咨询专知VIP会员