Machine learned partial differential equation (PDE) solvers trade the reliability of standard numerical methods for potential gains in accuracy and/or speed. The only way for a solver to guarantee that it outputs the exact solution is to use a convergent method in the limit that the grid spacing $\Delta x$ and timestep $\Delta t$ approach zero. Machine learned solvers, which learn to update the solution at large $\Delta x$ and/or $\Delta t$, can never guarantee perfect accuracy. Some amount of error is inevitable, so the question becomes: how do we constrain machine learned solvers to give us the sorts of errors that we are willing to tolerate? In this paper, we design more reliable machine learned PDE solvers by preserving discrete analogues of the continuous invariants of the underlying PDE. Examples of such invariants include conservation of mass, conservation of energy, the second law of thermodynamics, and/or non-negative density. Our key insight is simple: to preserve invariants, at each timestep apply an error-correcting algorithm to the update rule. Though this strategy is different from how standard solvers preserve invariants, it is necessary to retain the flexibility that allows machine learned solvers to be accurate at large $\Delta x$ and/or $\Delta t$. This strategy can be applied to any autoregressive solver for any time-dependent PDE in arbitrary geometries with arbitrary boundary conditions. Although this strategy is very general, the specific error-correcting algorithms need to be tailored to the invariants of the underlying equations as well as to the solution representation and time-stepping scheme of the solver. The error-correcting algorithms we introduce have two key properties. First, by preserving the right invariants they guarantee numerical stability. Second, in closed or periodic systems they do so without degrading the accuracy of an already-accurate solver.


翻译:机器学习的偏微分方程(PDE)解法器通过误差较大的更新策略交换了标准数值方法的可靠性,获得了在精度和/或速度方面的潜在收益。解法器只有在格点间距$\Delta x$和时间步长$\Delta t$无限趋近于零时才能保证输出精确解。而学习过程中产生的误差是不可避免的,因此问题在于:我们如何约束机器学习解法器,使它们产生我们愿意接受的误差结果? 本文提出了一种方法,通过保留底层PDE的离散模拟中不变量,设计更可靠的机器学习PDE解法器。这些不变量包括质量守恒、能量守恒、热力学第二定律和/或非负密度等。关键的洞察力在于:在每个时间步骤上,应用一个误差校正算法来更新规则以保持不变量。虽然这种策略与标准解法器保持不变量的方式不同,但这种策略是必要的,以保留机器学习解法器在大$\Delta x$和/或$\Delta t$下精确的灵活性。该策略可以应用于任何基于自回归的解法器,用于任何时间相关的PDE,无论其形状和边界条件如何。虽然这种策略非常通用,但特定的误差校正算法需要根据底层方程中的不变量以及解法器中的解法表示和时间步骤方案进行定制。我们介绍的误差校正算法有两个关键属性。首先,通过保留正确的不变量,它们保证了数值稳定性。其次,在封闭或周期性系统中,它们做到了不损害已经精确的解法器的精度。

0
下载
关闭预览

相关内容

机器学习组合优化
专知会员服务
109+阅读 · 2021年2月16日
专知会员服务
50+阅读 · 2020年12月14日
神经网络的拓扑结构,TOPOLOGY OF DEEP NEURAL NETWORKS
专知会员服务
32+阅读 · 2020年4月15日
Transferring Knowledge across Learning Processes
CreateAMind
28+阅读 · 2019年5月18日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
17+阅读 · 2018年12月24日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
1+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
国家自然科学基金
0+阅读 · 2008年12月31日
Arxiv
18+阅读 · 2021年3月16日
VIP会员
相关基金
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
1+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
国家自然科学基金
0+阅读 · 2008年12月31日
Top
微信扫码咨询专知VIP会员