We consider a family of variational time discretizations that are generalizations of discontinuous Galerkin (dG) and continuous Galerkin-Petrov (cGP) methods. The family is characterized by two parameters. One describes the polynomial ansatz order while the other one is associated with the global smoothness that is ensured by higher order collocation conditions at both ends of the subintervals. The presented methods provide the same stability properties as dG or cGP. Provided that suitable quadrature rules of Hermite type for evaluating the integrals in the variational conditions are used, the variational time discretization methods are connected to special collocation methods. For this case, we will present error estimates, numerical experiments, and a computationally cheap postprocessing that allows to increase both the accuracy and the global smoothness by one order.


翻译:我们考虑的是不同时间分解的大家庭,这些家庭是不连续的Galerkin(dG)和连续的Galerkin-Petrov(cGP)方法的通用。家庭具有两个参数的特征。一个是多式肛交顺序,另一个则与全球的顺畅有关,后者由次周期两端的较高顺序合用条件所保证。提出的方法提供了与dG或cGP相同的稳定性特性。只要使用赫米特型的合适二次曲线规则来评价变换条件的内分解,则变化式时间分解方法与特殊的合用方法相连。对于这种情况,我们将提出错误估计、数字实验和计算便宜的后处理,以便通过一个顺序提高准确性和全球的顺畅性。

0
下载
关闭预览

相关内容

专知会员服务
17+阅读 · 2020年9月6日
打怪升级!2020机器学习工程师技术路线图
专知会员服务
98+阅读 · 2020年6月3日
因果图,Causal Graphs,52页ppt
专知会员服务
246+阅读 · 2020年4月19日
【哈佛大学商学院课程Fall 2019】机器学习可解释性
专知会员服务
103+阅读 · 2019年10月9日
已删除
将门创投
11+阅读 · 2019年8月13日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Disentangled的假设的探讨
CreateAMind
9+阅读 · 2018年12月10日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
【论文】变分推断(Variational inference)的总结
机器学习研究会
39+阅读 · 2017年11月16日
Adversarial Variational Bayes: Unifying VAE and GAN 代码
CreateAMind
7+阅读 · 2017年10月4日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
Hyperspherical Variational Auto-Encoders
Arxiv
4+阅读 · 2018年9月26日
VIP会员
相关资讯
Top
微信扫码咨询专知VIP会员