Machine learned partial differential equation (PDE) solvers trade the reliability of standard numerical methods for potential gains in accuracy and/or speed. The only way for a solver to guarantee that it outputs the exact solution is to use a convergent method in the limit that the grid spacing $\Delta x$ and timestep $\Delta t$ approach zero. Machine learned solvers, which learn to update the solution at large $\Delta x$ and/or $\Delta t$, can never guarantee perfect accuracy. Some amount of error is inevitable, so the question becomes: how do we constrain machine learned solvers to give us the sorts of errors that we are willing to tolerate? In this paper, we design more reliable machine learned PDE solvers by preserving discrete analogues of the continuous invariants of the underlying PDE. Examples of such invariants include conservation of mass, conservation of energy, the second law of thermodynamics, and/or non-negative density. Our key insight is simple: to preserve invariants, at each timestep apply an error-correcting algorithm to the update rule. Though this strategy is different from how standard solvers preserve invariants, it is necessary to retain the flexibility that allows machine learned solvers to be accurate at large $\Delta x$ and/or $\Delta t$. This strategy can be applied to any autoregressive solver for any time-dependent PDE in arbitrary geometries with arbitrary boundary conditions. Although this strategy is very general, the specific error-correcting algorithms need to be tailored to the invariants of the underlying equations as well as to the solution representation and time-stepping scheme of the solver. The error-correcting algorithms we introduce have two key properties. First, by preserving the right invariants they guarantee numerical stability. Second, in closed or periodic systems they do so without degrading the accuracy of an already-accurate solver.


翻译:---- 机器学习的偏微分方程(PDE)求解器通过交换标准数值方法的可靠性来获得可能的精度和/或速度收益。要保证求解器输出精确解的唯一方法是在网格间隔$\Delta x$和时间步长$\Delta t$趋近于零的极限下使用收敛的方法。学习在大$\Delta x$和/或$\Delta t$下更新解的机器学习求解器永远无法保证完美的准确性。某种程度的误差是不可避免的,因此问题在于:我们如何约束机器学习求解器以给出我们愿意容忍的错误类型?在本文中,我们通过保持底层PDE的连续不变量的离散类比来设计更可靠的机器学习PDE求解器。这些不变量的例子包括质量守恒、能量守恒、热力学第二定律和/或非负密度。我们的关键见解很简单:为了保持不变量,每个时间步骤应用一个纠错算法到更新规则中。虽然这种策略与标准求解器保留常数的策略不同,但它是保持机器学习求解器在大$\Delta x$和/或$\Delta t$下具有准确性所必需的灵活性。这种策略可以应用于任何基于自回归的求解器,它可以用于任意几何形状和任意边界条件的时间相关PDE。虽然这种策略非常通用,但具体的纠错算法需要根据底层方程的不变量以及求解器的解表示和时间步进方案进行调整。我们引入的纠错算法具有两个关键特性。第一,通过保留正确的不变量,它们保证数值稳定性。第二,在封闭或周期性系统中,它们能够在不降低已经准确的求解器的准确性的情况下保持稳定性。

0
下载
关闭预览

相关内容

Nat. Methods | MSNovelist:从质谱生成小分子结构的新方法
专知会员服务
3+阅读 · 2022年6月22日
【2022新书】机器学习基础,225页pdf,Machine Learning The Basics
专知会员服务
50+阅读 · 2020年12月14日
【SIGIR2020】学习词项区分性,Learning Term Discrimination
专知会员服务
15+阅读 · 2020年4月28日
Transferring Knowledge across Learning Processes
CreateAMind
27+阅读 · 2019年5月18日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
无监督元学习表示学习
CreateAMind
27+阅读 · 2019年1月4日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
16+阅读 · 2018年12月24日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
Arxiv
0+阅读 · 2023年5月17日
Arxiv
18+阅读 · 2021年3月16日
VIP会员
相关VIP内容
相关基金
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
Top
微信扫码咨询专知VIP会员