Recent research works for solving partial differential equations (PDEs) with deep neural networks (DNNs) have demonstrated that spatiotemporal function approximators defined by auto-differentiation are effective for approximating nonlinear problems, e.g. the Burger's equation, heat conduction equations, Allen-Cahn and other reaction-diffusion equations, and Navier-Stokes equation. Meanwhile, researchers apply automatic differentiation in physics-informed neural network (PINN) to solve nonlinear hyperbolic systems based on conservation laws with highly discontinuous transition, such as Riemann problem, by inverse problem formulation in data-driven approach. However, it remains a challenge for forward methods using DNNs without knowing part of the solution to resolve discontinuities in nonlinear conservation laws. In this study, we incorporate 1st order numerical schemes into DNNs to set up the loss functional approximator instead of auto-differentiation from traditional deep learning framework, e.g. TensorFlow package, which improves the effectiveness of capturing discontinuities in Riemann problems. In particular, the 2-Coarse-Grid neural network (2CGNN) and 2-Diffusion-Coefficient neural network (2DCNN) are introduced in this work. We use 2 solutions of a conservation law from a converging sequence, computed from a low-cost numerical scheme, and in a domain of dependence of a space-time grid point as the input for a neural network to predict its high-fidelity solution at the grid point. Despite smeared input solutions, they output sharp approximations to solutions containing shocks and contacts and are efficient to use once trained.


翻译:与深神经网络(DNNs)一起解决部分差异方程式(PDEs)的近期研究显示,由自动差异定义的波形功能近似功能对于接近非线性问题(如汉堡方程式、热传导方程式、Allen-Cahn 和其他反应扩散方程式)和Navier-Stokes方程式等)有效。与此同时,研究人员将物理知情神经网络(PINN)的自动区分用于基于高度不连续过渡的保全法的非线性双向系统(如Riemann问题),通过数据驱动法的反向问题配置。然而,对于使用DNNNPs的非线性问题(如汉堡方程式的等方程式)、热传导方程式(Allen-Cahn) 和其他反射方程式的一阶数字计划,以便从传统的深度学习框架(例如TensorFlow软件) 的自动辨别超线性超双向系统(例如Riemann 问题),它改进了在里卡内端网络(2NF) 的内径网络的内端解决方案(2NCL) 的内的内的内径解决方案(Sild-C) 。

0
下载
关闭预览

相关内容

神经网络(Neural Networks)是世界上三个最古老的神经建模学会的档案期刊:国际神经网络学会(INNS)、欧洲神经网络学会(ENNS)和日本神经网络学会(JNNS)。神经网络提供了一个论坛,以发展和培育一个国际社会的学者和实践者感兴趣的所有方面的神经网络和相关方法的计算智能。神经网络欢迎高质量论文的提交,有助于全面的神经网络研究,从行为和大脑建模,学习算法,通过数学和计算分析,系统的工程和技术应用,大量使用神经网络的概念和技术。这一独特而广泛的范围促进了生物和技术研究之间的思想交流,并有助于促进对生物启发的计算智能感兴趣的跨学科社区的发展。因此,神经网络编委会代表的专家领域包括心理学,神经生物学,计算机科学,工程,数学,物理。该杂志发表文章、信件和评论以及给编辑的信件、社论、时事、软件调查和专利信息。文章发表在五个部分之一:认知科学,神经科学,学习系统,数学和计算分析、工程和应用。 官网地址:http://dblp.uni-trier.de/db/journals/nn/
专知会员服务
52+阅读 · 2021年6月14日
【图与几何深度学习】Graph and geometric deep learning,49页ppt
神经常微分方程教程,50页ppt,A brief tutorial on Neural ODEs
专知会员服务
71+阅读 · 2020年8月2日
一份简单《图神经网络》教程,28页ppt
专知会员服务
123+阅读 · 2020年8月2日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
逆强化学习-学习人先验的动机
CreateAMind
15+阅读 · 2019年1月18日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
强化学习族谱
CreateAMind
26+阅读 · 2017年8月2日
Arxiv
0+阅读 · 2021年11月11日
Arxiv
0+阅读 · 2021年11月11日
Arxiv
0+阅读 · 2021年11月10日
Arxiv
0+阅读 · 2021年11月9日
VIP会员
相关资讯
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
逆强化学习-学习人先验的动机
CreateAMind
15+阅读 · 2019年1月18日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
强化学习族谱
CreateAMind
26+阅读 · 2017年8月2日
Top
微信扫码咨询专知VIP会员