Under some regularity assumptions, we report an a priori error analysis of a dG scheme for the Poisson and Stokes flow problem in their dual mixed formulation. Both formulations satisfy a Babu\v{s}ka-Brezzi type condition within the space H(div) x L2. It is well known that the lowest order Crouzeix-Raviart element paired with piecewise constants satisfies such a condition on (broken) H1 x L2 spaces. In the present article, we use this pair. The continuity of the normal component is weakly imposed by penalizing jumps of the broken H(div) component. For the resulting methods, we prove well-posedness and convergence with constants independent of data and mesh size. We report error estimates in the methods natural norms and optimal local error estimates for the divergence error. In fact, our finite element solution shares for each triangle one DOF with the CR interpolant and the divergence is locally the best-approximation for any regularity. Numerical experiments support the findings and suggest that the other errors converge optimally even for the lowest regularity solutions and a crack-problem, as long as the crack is resolved by the mesh.


翻译:在一些常规假设下,我们报告对Poisson和Stokes的双混合配方的 dG 流程问题进行了先验错误分析。两种配方都满足了H(div)xL2空间内Babu\v{s{s}ka-Brezzi类型的条件。众所周知,Crouzeix-Raviart 最小顺序元素与片断常数相配,满足了(broken) H1xL2空间的这种条件。在目前的条款中,我们使用这一对方。正常组件的连续性因惩罚破碎的H(div)组件的跳跃而弱化。对于由此产生的方法,我们证明我们完全符合和融合了数据与网体大小独立的恒定不变的常数和趋同。我们用自然规范来报告错误估计数,并报告差异误差误差的最佳地方误差。事实上,我们每个DOF 和CR内插器的三角点的定数的定数解决方案是当地最符合常数的。数字实验支持了调查结果,并表明其他错误的最佳趋近点,即使是最接近的常规解决办法。

0
下载
关闭预览

相关内容

专知会员服务
76+阅读 · 2021年3月16日
【经典书】C语言傻瓜式入门(第二版),411页pdf
专知会员服务
51+阅读 · 2020年8月16日
Keras François Chollet 《Deep Learning with Python 》, 386页pdf
专知会员服务
151+阅读 · 2019年10月12日
MIT新书《强化学习与最优控制》
专知会员服务
275+阅读 · 2019年10月9日
鲁棒机器学习相关文献集
专知
8+阅读 · 2019年8月18日
灾难性遗忘问题新视角:迁移-干扰平衡
CreateAMind
17+阅读 · 2019年7月6日
Transferring Knowledge across Learning Processes
CreateAMind
27+阅读 · 2019年5月18日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
16+阅读 · 2018年12月24日
人工智能 | 国际会议信息10条
Call4Papers
5+阅读 · 2018年12月18日
Hierarchical Imitation - Reinforcement Learning
CreateAMind
19+阅读 · 2018年5月25日
揭开知识库问答KB-QA的面纱2·语义解析篇
PaperWeekly
4+阅读 · 2017年8月11日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
揭开知识库问答KB-QA的面纱1·简介篇
PaperWeekly
6+阅读 · 2017年8月3日
Arxiv
0+阅读 · 2021年11月5日
VIP会员
相关资讯
鲁棒机器学习相关文献集
专知
8+阅读 · 2019年8月18日
灾难性遗忘问题新视角:迁移-干扰平衡
CreateAMind
17+阅读 · 2019年7月6日
Transferring Knowledge across Learning Processes
CreateAMind
27+阅读 · 2019年5月18日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
16+阅读 · 2018年12月24日
人工智能 | 国际会议信息10条
Call4Papers
5+阅读 · 2018年12月18日
Hierarchical Imitation - Reinforcement Learning
CreateAMind
19+阅读 · 2018年5月25日
揭开知识库问答KB-QA的面纱2·语义解析篇
PaperWeekly
4+阅读 · 2017年8月11日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
揭开知识库问答KB-QA的面纱1·简介篇
PaperWeekly
6+阅读 · 2017年8月3日
Top
微信扫码咨询专知VIP会员