In this paper, we combine a linearized iterative method with multi-scale deep neural network to compute oscillatory flows for stationary Navior-Stokes equation in complex domains. The multiscale neural network converts the high frequency components in target to low frequency components before training, thus accelerating the convergence of training of neural network for all frequencies. To solve the stationary nonlinear Navier-Stokes equation, we introduce the idea of linearization of Navier-Stokes equation and iterative methods to treat the nonlinear convection term. Three forms of linearizations will be considered. First we will conduct a benchmark problem of the linearized schemes in comparison with schemes based directly on the nonlinear PDE. Then, a Navier Stokes flow with high frequency components in a 2-D domain with a hole are learned by the linearized multiscale deep multiscale neural network. The results show that multiscale deep neural network combining with the linearized schemes can be trained fast and accurately.


翻译:在本文中,我们结合了一种线性迭代法和多尺度的深神经网络,以计算复杂域中固定导航-斯托克斯方程式的血管流。多尺度神经网络在培训前将目标中的高频元件转换成低频元件,从而加快了所有频率神经网络培训的趋同。为了解决固定非线性非线性导航-斯托克斯方程式,我们引入了纳维尔-斯托克斯方程式的线性化概念,以及处理非线性对流的迭代方法。将考虑三种线性化形式。首先,我们将对线性方案进行基准问题,与直接基于非线性PDE的系统进行比较。然后,通过线性多尺度的深层神经网络学习了带有洞的2D域高频元件的纳维尔斯托克斯流。结果显示,与线性方案相结合的多尺度深神经网络可以快速和准确地接受培训。

0
下载
关闭预览

相关内容

专知会员服务
54+阅读 · 2020年11月3日
【NeurIPS2020-MIT】子图神经网络,Subgraph Neural Networks
专知会员服务
46+阅读 · 2020年9月28日
知识图谱推理,50页ppt,Salesforce首席科学家Richard Socher
专知会员服务
109+阅读 · 2020年6月10日
Stabilizing Transformers for Reinforcement Learning
专知会员服务
60+阅读 · 2019年10月17日
【电子书推荐】Data Science with Python and Dask
专知会员服务
44+阅读 · 2019年6月1日
19篇ICML2019论文摘录选读!
专知
28+阅读 · 2019年4月28日
Ray RLlib: Scalable 降龙十八掌
CreateAMind
9+阅读 · 2018年12月28日
人工智能 | 国际会议信息10条
Call4Papers
5+阅读 · 2018年12月18日
利用动态深度学习预测金融时间序列基于Python
量化投资与机器学习
18+阅读 · 2018年10月30日
Hierarchical Imitation - Reinforcement Learning
CreateAMind
19+阅读 · 2018年5月25日
Reinforcement Learning: An Introduction 2018第二版 500页
CreateAMind
13+阅读 · 2018年4月27日
【学习】Hierarchical Softmax
机器学习研究会
4+阅读 · 2017年8月6日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
强化学习族谱
CreateAMind
26+阅读 · 2017年8月2日
Arxiv
0+阅读 · 2021年3月31日
Arxiv
7+阅读 · 2020年6月29日
VIP会员
相关资讯
19篇ICML2019论文摘录选读!
专知
28+阅读 · 2019年4月28日
Ray RLlib: Scalable 降龙十八掌
CreateAMind
9+阅读 · 2018年12月28日
人工智能 | 国际会议信息10条
Call4Papers
5+阅读 · 2018年12月18日
利用动态深度学习预测金融时间序列基于Python
量化投资与机器学习
18+阅读 · 2018年10月30日
Hierarchical Imitation - Reinforcement Learning
CreateAMind
19+阅读 · 2018年5月25日
Reinforcement Learning: An Introduction 2018第二版 500页
CreateAMind
13+阅读 · 2018年4月27日
【学习】Hierarchical Softmax
机器学习研究会
4+阅读 · 2017年8月6日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
强化学习族谱
CreateAMind
26+阅读 · 2017年8月2日
Top
微信扫码咨询专知VIP会员