物理信息神经网络(PINN)已广泛用于偏微分方程的稳健和精确近似。在本论文中,我们提供了PINN近似偏微分方程(PDE)正问题和逆问题解的泛化误差上界。特别地,我们关注一类特定的逆问题,即所谓的数据同化或唯一延续问题。我们引入了一个抽象形式主义,并利用底层PDE的稳定性质推导出泛化误差的估计,这些估计与训练误差和训练样本数量相关。这个抽象框架通过几个PDE的例子进行了说明,并提出了一些验证所提出理论的数值实例。推导出的估计显示了两个相关事实:(1)PINN需要底层PDE解的规则性以保证精确近似。因此,它们可能无法近似PDE的不连续解,例如非线性双曲方程。然后我们提出了PINN的一种新变体,称为弱PINN(wPINN),用于精确近似标量守恒律的熵解。wPINN基于近似一个最小最大优化问题的解决方案,该方案根据Kruzhkov熵定义残差,以确定近似熵解的神经网络及测试函数的参数。此外,(2)通过适当的积分规则,即蒙特卡洛积分法,PINN可能克服维数灾难。因此,我们采用物理信息神经网络(PINN)解决广泛的高维PDE的正问题和逆问题,包括辐射传递方程和金融方程。我们展示了一系列数值实验,证明PINN在低计算成本下为正问题和逆问题提供了非常精确的解决方案,而不会导致维数灾难。在论文的最后部分,我们转向运算符学习框架,并考虑一类只能作为从运算符到函数的映射定义的PDE逆问题。现有的运算符学习架构将函数映射到函数,需要修改以从数据中学习逆映射。我们提出了一种名为神经逆运算符(NIO)的新架构来解决这些PDE逆问题。受底层数学结构的启发,NIO基于适当组合DeepONets和FNO来近似从运算符到函数的映射。我们提出了多种实验来证明NIO显著优于基准,并且稳健和精确地解决PDE逆问题。此外,与现有的直接和PDE约束的优化方法相比,NIO的速度快几个数量级。