Quantifying uncertainties in hyperbolic equations is a source of several challenges. First, the solution forms shocks leading to oscillatory behaviour in the numerical approximation of the solution. Second, the number of unknowns required for an effective discretization of the solution grows exponentially with the dimension of the uncertainties, yielding high computational costs and large memory requirements. An efficient representation of the solution via adequate basis functions permits to tackle these difficulties. The generalized polynomial chaos (gPC) polynomials allow such an efficient representation when the distribution of the uncertainties is known. These distributions are usually only available for input uncertainties such as initial conditions, therefore the efficiency of this ansatz can get lost during runtime. In this paper, we make use of the dynamical low-rank approximation (DLRA) to obtain a memory-wise efficient solution approximation on a lower dimensional manifold. We investigate the use of the matrix projector-splitting integrator and the unconventional integrator for dynamical low-rank approximation, deriving separate time evolution equations for the spatial and uncertain basis functions, respectively. This guarantees an efficient approximation of the solution even if the underlying probability distributions change over time. Furthermore, filters to mitigate the appearance of spurious oscillations are implemented, and a strategy to enforce boundary conditions is introduced. The proposed methodology is analyzed for Burgers' equation equipped with uncertain initial values represented by a two-dimensional random vector. The numerical results show a reduction of the memory requirements, and that the important characteristics of the original system are well captured.


翻译:对超曲方程式的不确定性进行量化是若干挑战的一个来源。 首先,解决方案构成冲击,导致在解决方案的数值近似值中出现扭曲行为。 其次,解决方案的有效离散所需的未知数随着不确定性的大小而成倍增加,从而产生高昂的计算成本和大量的记忆要求。 通过适当基础功能对解决方案进行高效的表述,可以解决这些困难。当不确定性的分布为人知时,普遍的多边混合混杂(gPC)多元混杂(gPC)允许这种高效的表达方式。这些分布通常只适用于输入不确定性,如初始条件,因此,这一 ansatz 的特性在运行时可能会丢失。 在本文中,我们使用动态低级别近似(DLACA) 来获得一个记忆性高效的解决方案近似,从而解决这些困难。 我们调查矩阵投影器分解器和非常规混集器在动态低级别近似时的使用情况,为空间和不确定基础功能分别设定了时间演进方程式。 这保证了动态低位缩缩缩缩缩缩缩的初定结果的准确度分布方法,如果是用于深度排序,那么,那么的排序的排序,那么,则会推测测测测测测测测测测测测测测测测测测测测测测测测测测测测算方法,则会将意味着。

0
下载
关闭预览

相关内容

Fariz Darari简明《博弈论Game Theory》介绍,35页ppt
专知会员服务
109+阅读 · 2020年5月15日
专知会员服务
61+阅读 · 2020年3月4日
Stabilizing Transformers for Reinforcement Learning
专知会员服务
58+阅读 · 2019年10月17日
【哈佛大学商学院课程Fall 2019】机器学习可解释性
专知会员服务
103+阅读 · 2019年10月9日
LibRec 精选:AutoML for Contextual Bandits
LibRec智能推荐
7+阅读 · 2019年9月19日
IEEE | DSC 2019诚邀稿件 (EI检索)
Call4Papers
10+阅读 · 2019年2月25日
人工智能 | 国际会议信息6条
Call4Papers
4+阅读 · 2019年1月4日
Disentangled的假设的探讨
CreateAMind
9+阅读 · 2018年12月10日
机器学习线性代数速查
机器学习研究会
19+阅读 · 2018年2月25日
条件GAN重大改进!cGANs with Projection Discriminator
CreateAMind
8+阅读 · 2018年2月7日
【论文】变分推断(Variational inference)的总结
机器学习研究会
39+阅读 · 2017年11月16日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
VIP会员
相关资讯
LibRec 精选:AutoML for Contextual Bandits
LibRec智能推荐
7+阅读 · 2019年9月19日
IEEE | DSC 2019诚邀稿件 (EI检索)
Call4Papers
10+阅读 · 2019年2月25日
人工智能 | 国际会议信息6条
Call4Papers
4+阅读 · 2019年1月4日
Disentangled的假设的探讨
CreateAMind
9+阅读 · 2018年12月10日
机器学习线性代数速查
机器学习研究会
19+阅读 · 2018年2月25日
条件GAN重大改进!cGANs with Projection Discriminator
CreateAMind
8+阅读 · 2018年2月7日
【论文】变分推断(Variational inference)的总结
机器学习研究会
39+阅读 · 2017年11月16日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
Top
微信扫码咨询专知VIP会员