Deep learning method has attracted tremendous attention to handle fluid dynamics in recent years. However, the deep learning method requires much data to guarantee the generalization ability and the data of fluid dynamics are deficient. Recently, physics informed neural network (PINN) is popular to solve the fluid flow problems, which basic concept is to embed the governing equation and continuity equation into loss function, with the requirement of less dataset for obtaining a reliable neural network. In this paper, the mixed-variable PINN method, which convert the governing equation into continuum and constitutive formulations, is proposed to solve the fluid dynamics (flow past cylinder) without any labeled data. The initial/boundary conditions with penalty factors are also embedded into the loss function to become a well-imposed problem. The results show that mixed-variable PINN has better predictive ability to construct the flow field than traditional PINN scheme. Furthermore, the transfer learning method is adopted to is solve the fluid solutions with different Reynold numbers with less computational cost. The results also demonstrate that the transfer learning method can well simulate the different Reynolds number in a short time.


翻译:近些年来,深层学习方法吸引了处理流体动态的极大关注。然而,深层学习方法需要大量数据来保证一般化能力,而流体动态数据也不足。最近,物理知情神经网络(PINN)对于解决流体流问题很受欢迎,其基本概念是将治理方程式和连续性方程式嵌入流失功能,而对于获取可靠的神经网络则需要较少的数据集。在本文中,将治理方程式转换成连续体和构件的混合可变PINN方法被提出来在没有标签数据的情况下解决流体动态(流过气瓶)问题。带有惩罚因素的初始/封闭性条件也嵌入了损失函数中,以成为一个很好的问题。结果显示,混合可变式 PINN 系统比传统的 PINN 计划更具有更好的预测能力来构建流体字段。此外,转移学习方法是用不同的Reynold 数字和较少计算成本解决流体流体解决方案。结果还表明,转移学习方法可以在短时间内模拟不同的 Renold 数字。

0
下载
关闭预览

相关内容

《计算机信息》杂志发表高质量的论文,扩大了运筹学和计算的范围,寻求有关理论、方法、实验、系统和应用方面的原创研究论文、新颖的调查和教程论文,以及描述新的和有用的软件工具的论文。官网链接:https://pubsonline.informs.org/journal/ijoc
MATLAB玩转深度学习?新书「MATLAB Deep Learning」162页pdf
专知会员服务
101+阅读 · 2020年1月13日
Keras François Chollet 《Deep Learning with Python 》, 386页pdf
专知会员服务
154+阅读 · 2019年10月12日
【SIGGRAPH2019】TensorFlow 2.0深度学习计算机图形学应用
专知会员服务
41+阅读 · 2019年10月9日
MIT新书《强化学习与最优控制》
专知会员服务
278+阅读 · 2019年10月9日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
28+阅读 · 2019年5月18日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
Ray RLlib: Scalable 降龙十八掌
CreateAMind
9+阅读 · 2018年12月28日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
分布式TensorFlow入门指南
机器学习研究会
4+阅读 · 2017年11月28日
【论文】变分推断(Variational inference)的总结
机器学习研究会
39+阅读 · 2017年11月16日
【推荐】RNN/LSTM时序预测
机器学习研究会
25+阅读 · 2017年9月8日
Arxiv
0+阅读 · 2022年1月21日
Arxiv
0+阅读 · 2022年1月18日
VIP会员
相关资讯
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
28+阅读 · 2019年5月18日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
Ray RLlib: Scalable 降龙十八掌
CreateAMind
9+阅读 · 2018年12月28日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
分布式TensorFlow入门指南
机器学习研究会
4+阅读 · 2017年11月28日
【论文】变分推断(Variational inference)的总结
机器学习研究会
39+阅读 · 2017年11月16日
【推荐】RNN/LSTM时序预测
机器学习研究会
25+阅读 · 2017年9月8日
Top
微信扫码咨询专知VIP会员