The classical development of neural networks has primarily focused on learning mappings between finite-dimensional Euclidean spaces. Recently, this has been generalized to neural operators that learn mappings between function spaces. For partial differential equations (PDEs), neural operators directly learn the mapping from any functional parametric dependence to the solution. Thus, they learn an entire family of PDEs, in contrast to classical methods which solve one instance of the equation. In this work, we formulate a new neural operator by parameterizing the integral kernel directly in Fourier space, allowing for an expressive and efficient architecture. We perform experiments on Burgers' equation, Darcy flow, and Navier-Stokes equation. The Fourier neural operator is the first ML-based method to successfully model turbulent flows with zero-shot super-resolution. It is up to three orders of magnitude faster compared to traditional PDE solvers. Additionally, it achieves superior accuracy compared to previous learning-based solvers under fixed resolution.


翻译:神经网络的古典发展主要侧重于学习有限维度的欧几里得空间之间的绘图。 最近,这被广泛推广到在功能空间之间进行绘图的神经操作员。 对于部分差异方程式(PDEs),神经操作员直接从任何功能参数依赖性到溶液中学习绘图。因此,他们学习了一整套PDEs,而传统方法则解决了其中一种方程式。在这项工作中,我们开发了一个新的神经操作员,在Fourier空间直接对整体内核进行参数参数化,以便有一个清晰有效的结构。我们在Burgers的方程式、Darcy流和Navier-Stokes等式上进行了实验。Fourier神经操作员是第一个以ML为基础的成功模拟无速超分辨率暴动流动的方法。它比传统的PDE解答器更快达到3个数量级。此外,它比以前的固定分辨率下的基于学习的解答器更精准。

0
下载
关闭预览

相关内容

专知会员服务
50+阅读 · 2020年12月14日
最新《深度卷积神经网络理论》报告,35页ppt
专知会员服务
45+阅读 · 2020年11月30日
【SIGGRAPH2019】TensorFlow 2.0深度学习计算机图形学应用
专知会员服务
39+阅读 · 2019年10月9日
强化学习三篇论文 避免遗忘等
CreateAMind
19+阅读 · 2019年5月24日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Hierarchical Imitation - Reinforcement Learning
CreateAMind
19+阅读 · 2018年5月25日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
Capsule Networks解析
机器学习研究会
11+阅读 · 2017年11月12日
【学习】Hierarchical Softmax
机器学习研究会
4+阅读 · 2017年8月6日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
Metric-Distortion Bounds under Limited Information
Arxiv
0+阅读 · 2021年7月6日
Arxiv
13+阅读 · 2021年5月25日
Arxiv
9+阅读 · 2021年4月8日
Arxiv
19+阅读 · 2020年7月13日
Arxiv
7+阅读 · 2020年6月29日
Geometric Graph Convolutional Neural Networks
Arxiv
10+阅读 · 2019年9月11日
Arxiv
6+阅读 · 2018年10月3日
VIP会员
相关资讯
强化学习三篇论文 避免遗忘等
CreateAMind
19+阅读 · 2019年5月24日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Hierarchical Imitation - Reinforcement Learning
CreateAMind
19+阅读 · 2018年5月25日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
Capsule Networks解析
机器学习研究会
11+阅读 · 2017年11月12日
【学习】Hierarchical Softmax
机器学习研究会
4+阅读 · 2017年8月6日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
相关论文
Metric-Distortion Bounds under Limited Information
Arxiv
0+阅读 · 2021年7月6日
Arxiv
13+阅读 · 2021年5月25日
Arxiv
9+阅读 · 2021年4月8日
Arxiv
19+阅读 · 2020年7月13日
Arxiv
7+阅读 · 2020年6月29日
Geometric Graph Convolutional Neural Networks
Arxiv
10+阅读 · 2019年9月11日
Arxiv
6+阅读 · 2018年10月3日
Top
微信扫码咨询专知VIP会员