Physics-informed neural networks (PINNs) have been proposed to learn the solution of partial differential equations (PDE). In PINNs, the residual form of the PDE of interest and its boundary conditions are lumped into a composite objective function as an unconstrained optimization problem, which is then used to train a deep feed-forward neural network. Here, we show that this specific way of formulating the objective function is the source of severe limitations in the PINN approach when applied to different kinds of PDEs. To address these limitations, we propose a versatile framework that can tackle both inverse and forward problems. The framework is adept at multi-fidelity data fusion and can seamlessly constrain the governing physics equations with proper initial and boundary conditions. The backbone of the proposed framework is a nonlinear, equality-constrained optimization problem formulation aimed at minimizing a loss functional, where an augmented Lagrangian method (ALM) is used to formally convert a constrained-optimization problem into an unconstrained-optimization problem. We implement the ALM within a stochastic, gradient-descent type training algorithm in a way that scrupulously focuses on meeting the constraints without sacrificing other loss terms. Additionally, as a modification of the original residual layers, we propose lean residual layers in our neural network architecture to address the so-called vanishing-gradient problem. We demonstrate the efficacy and versatility of our physics- and equality-constrained deep-learning framework by applying it to learn the solutions of various multi-dimensional PDEs, including a nonlinear inverse problem from the hydrology field with multi-fidelity data fusion. The results produced with our proposed model match exact solutions very closely for all the cases considered.
翻译:物理知情神经网络( PINNs) 已被推荐用于学习局部差异方程式( PDE) 的解决方案。 在 PINNs 中, 兴趣方程式及其边界条件的剩余形式会作为一个不受限制的优化问题, 被拼凑成一个复合目标功能, 作为不受限制的优化问题, 然后用来训练一个深度的进料神经网络。 在这里, 我们显示, 制定目标功能的具体方式是PINN 方法在应用到不同类型PDEs时受到严重限制的根源。 为了解决这些限制, 我们提出了一个能同时解决反向和前向问题的多功能框架。 这个框架适应多功能性非功能数据融合, 并且可以无缝地限制物理方程式的组合。 这个拟议框架的骨干是一个非线性、 平等方程式的优化, 用来尽量减少损失功能, 强化的Lagrangian方法(ALM) 被正式地将限制的功能问题转换成一个不受限制的优化的解决方案。 我们把ALM( ALM) 放在一个不具有深度的多功能性、 异性和非前端性数据融合性的数据融合框架中,, 将一个稳定的网络的模型化模型化的模型化的模型化的模型化过程的系统化方法 以演示式的系统化的模型化的模型化为我们演示的模型, 。 我们的模型的模型的模型的模型的模型的模型的模型的模型的模型的模型的模型的模型的模型的模型的模型的模型的模型,,, 将它作为其他的模型的模型的模型的模型, 的模型的演示式的模型的模型的模型的模型的模型的模型的模型的模型的模型的模型的模型的模型的模型的模型的模型的演示的模型的模型的模型的模型的模型的模型的模型的模型的模型的模型的模型的模型的模型的模型的模型的模型的模型的模型的模型的模型的模型的模型的模型的模型的模型的模型的模型的模型的模型的模型的模型的模型的模型的模型的模型的模型的模型的模型的模型的模型的模型的模型的模型的模型的模型的模型的模型的模型的模型的模型的模型的模型的模型的模型的模型的模型的模型的模型的模型的模型的模型的