The simulation of partial differential equations is a central subject of numerical analysis and an indispensable tool in science, engineering and related fields. Existing approaches, such as finite elements, provide (highly) efficient tools but deep neural network-based techniques emerged in the last few years as an alternative with very promising results. We investigate the combination of both approaches for the approximation of the Navier-Stokes equations and to what extent structural properties such as divergence freedom can and should be respected. Our work is based on DNN-MG, a deep neural network multigrid technique, that we introduced recently and which uses a neural network to represent fine grid fluctuations not resolved by a geometric multigrid finite element solver. Although DNN-MG provides solutions with very good accuracy and is computationally highly efficient, we noticed that the neural network-based corrections substantially violate the divergence freedom of the velocity vector field. In this contribution, we discuss these findings and analyze three approaches to address the problem: a penalty term to encourage divergence freedom of the network output; a penalty term for the corrected velocity field; and a network that learns the stream function, i.e. the scalar potential of the divergence free velocity vector field and which hence yields by construction divergence free corrections. Our experimental results show that the third approach based on the stream function outperforms the other two and not only improves the divergence freedom but in particular also the overall fidelity of the simulation.


翻译:部分差异方程式的模拟是数字分析的中心主题,也是科学、工程及相关领域不可或缺的工具。现有方法,例如有限元素,提供(高)高效工具,但以深神经网络为基础的技术在过去几年中出现,以此作为非常有希望的结果的替代方法。我们调查纳维-斯托克斯方程式近似两种方法的结合情况,以及差异自由等结构属性在多大程度上可以并应当得到尊重。我们的工作以DNN-MG为基础,这是一个深神经网络多格技术,我们最近推出,并使用神经网络来代表不由几何多格最小元素求解答解决的细电网波动。虽然DNNNMG提供了非常准确且计算效率很高的解决方案,但我们注意到基于神经网络的校正大大侵犯了速度矢量场的偏差自由度。我们讨论了这些研究结果,并分析了解决这一问题的三种方法:一个惩罚术语,仅鼓励网络输出的偏差自由度;一个惩罚术语,用于校正速度字段;一个网络,学习流函数,而不是由几何多电网质多点元素解解解解解解解。一个网络,即不甚精确精确且具有计算高精准的电解度的流功能,我们从空间流流流流流流流流流流流平流法的变异变异化法,也显示以空间流法,以自由流流流流流法的磁流法将显示以自由流流流流流流流流流法,以自由流平流法的磁流流法的流法,以自由流法形式显示自由流法流法的流法,以自由流法的变变换法,以自由流法的流法,以导出其他的变流法,以自由向法的流流流体,以导出其他的变制的变制的变变法将显示其他的体,以导出其他的变变制的流法的流法的流法,以自由的流法,以导法将的流法,以自由向法制的变制为其他的变。等离流法的变制的变制的变换法的变制的变换法,以导法的变换法的变制的变。

0
下载
关闭预览

相关内容

【干货书】机器学习速查手册,135页pdf
专知会员服务
126+阅读 · 2020年11月20日
神经网络的拓扑结构,TOPOLOGY OF DEEP NEURAL NETWORKS
专知会员服务
33+阅读 · 2020年4月15日
Stabilizing Transformers for Reinforcement Learning
专知会员服务
60+阅读 · 2019年10月17日
Keras François Chollet 《Deep Learning with Python 》, 386页pdf
专知会员服务
154+阅读 · 2019年10月12日
强化学习最新教程,17页pdf
专知会员服务
177+阅读 · 2019年10月11日
内涵网络嵌入:Content-rich Network Embedding
我爱读PAMI
4+阅读 · 2019年11月5日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
深度自进化聚类:Deep Self-Evolution Clustering
我爱读PAMI
15+阅读 · 2019年4月13日
RL 真经
CreateAMind
5+阅读 · 2018年12月28日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
17+阅读 · 2018年12月24日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
【论文】变分推断(Variational inference)的总结
机器学习研究会
39+阅读 · 2017年11月16日
【论文】图上的表示学习综述
机器学习研究会
14+阅读 · 2017年9月24日
【学习】Hierarchical Softmax
机器学习研究会
4+阅读 · 2017年8月6日
强化学习 cartpole_a3c
CreateAMind
9+阅读 · 2017年7月21日
Arxiv
0+阅读 · 2021年2月12日
Arxiv
4+阅读 · 2018年2月19日
Arxiv
6+阅读 · 2018年1月11日
VIP会员
相关资讯
内涵网络嵌入:Content-rich Network Embedding
我爱读PAMI
4+阅读 · 2019年11月5日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
深度自进化聚类:Deep Self-Evolution Clustering
我爱读PAMI
15+阅读 · 2019年4月13日
RL 真经
CreateAMind
5+阅读 · 2018年12月28日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
17+阅读 · 2018年12月24日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
【论文】变分推断(Variational inference)的总结
机器学习研究会
39+阅读 · 2017年11月16日
【论文】图上的表示学习综述
机器学习研究会
14+阅读 · 2017年9月24日
【学习】Hierarchical Softmax
机器学习研究会
4+阅读 · 2017年8月6日
强化学习 cartpole_a3c
CreateAMind
9+阅读 · 2017年7月21日
Top
微信扫码咨询专知VIP会员