We propose a deep learning based discontinuous Galerkin method (D2GM) to solve hyperbolic equations with discontinuous solutions and random uncertainties. The main computational challenges for such problems include discontinuities of the solutions and the curse of dimensionality due to uncertainties. Deep learning techniques have been favored for high-dimensional problems but face difficulties when the solution is not smooth, thus have so far been mainly used for viscous hyperbolic system that admits only smooth solutions. We alleviate this difficulty by setting up the loss function using discrete shock capturing schemes--the discontinous Galerkin method as an example--since the solutions are smooth in the discrete space. The convergence of D2GM is established via the Lax equivalence theorem kind of argument. The high-dimensional random space is handled by the Monte-Carlo method. Such a setup makes the D2GM approximate high-dimensional functions over the random space with satisfactory accuracy at reasonable cost. The D2GM is found numerically to be first-order and second-order accurate for (stochastic) linear conservation law with smooth solutions using piecewise constant and piecewise linear basis functions, respectively. Numerous examples are given to verify the efficiency and the robustness of D2GM with the dimensionality of random variables up to $200$ for (stochastic) linear conservation law and (stochastic) Burgers' equation.


翻译:我们提出一种基于深度学习的不连续 Galerkin 方法(D2GM), 以解决具有不连续解决方案和随机不确定性的双曲方程式(D2GM) 。 这些问题的主要计算挑战包括解决方案的不连续性和由于不确定性而使维度受到诅咒。 深层学习技术被偏向于高层面问题,但在解决方案不顺利的情况下却面临困难, 因此迄今为止主要用于只承认平稳解决方案的超双曲系统。 我们通过使用离散休克捕捉方案设置损失函数来缓解这一困难。 我们通过使用离散空间的离散休克捕捉取方案- 分离的Galerkin 方法作为示例。 D2GM 的趋同性是通过Lax等量理论类辩论建立的。 高维度随机空间由蒙特-Carlo 方法处理。 这种设置使D2GM在随机空间上接近高维度功能,以合理的成本。 我们发现D2GM在数字上是第一阶和第二阶次精确的线性保护法, 以平滑度法的常态和直径直径直径直径直方函数为不同。

0
下载
关闭预览

相关内容

神经常微分方程教程,50页ppt,A brief tutorial on Neural ODEs
专知会员服务
70+阅读 · 2020年8月2日
【快讯】CVPR2020结果出炉,1470篇上榜, 你的paper中了吗?
专知会员服务
158+阅读 · 2020年1月16日
专知会员服务
112+阅读 · 2019年12月24日
Stabilizing Transformers for Reinforcement Learning
专知会员服务
57+阅读 · 2019年10月17日
Transferring Knowledge across Learning Processes
CreateAMind
26+阅读 · 2019年5月18日
Unsupervised Learning via Meta-Learning
CreateAMind
41+阅读 · 2019年1月3日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
随波逐流:Similarity-Adaptive and Discrete Optimization
我爱读PAMI
5+阅读 · 2018年2月6日
计算机视觉近一年进展综述
机器学习研究会
8+阅读 · 2017年11月25日
【论文】变分推断(Variational inference)的总结
机器学习研究会
39+阅读 · 2017年11月16日
【论文】图上的表示学习综述
机器学习研究会
13+阅读 · 2017年9月24日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
Arxiv
0+阅读 · 2021年9月2日
Arxiv
6+阅读 · 2018年10月3日
VIP会员
相关资讯
Transferring Knowledge across Learning Processes
CreateAMind
26+阅读 · 2019年5月18日
Unsupervised Learning via Meta-Learning
CreateAMind
41+阅读 · 2019年1月3日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
随波逐流:Similarity-Adaptive and Discrete Optimization
我爱读PAMI
5+阅读 · 2018年2月6日
计算机视觉近一年进展综述
机器学习研究会
8+阅读 · 2017年11月25日
【论文】变分推断(Variational inference)的总结
机器学习研究会
39+阅读 · 2017年11月16日
【论文】图上的表示学习综述
机器学习研究会
13+阅读 · 2017年9月24日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
Top
微信扫码咨询专知VIP会员