We propose two different discrete formulations for the weak imposition of the Neumann boundary conditions of the Darcy flow. The Raviart-Thomas mixed finite element on both triangular and quadrilateral meshes is considered for both methods. One is a consistent discretization depending on a weighting parameter scaling as $\mathcal O(h^{-1})$, while the other is a penalty-type formulation obtained as the discretization of a perturbation of the original problem and relies on a parameter scaling as $\mathcal O(h^{-k-1})$, $k$ being the order of the Raviart-Thomas space. We rigorously prove that both methods are stable and result in optimal convergent numerical schemes with respect to appropriate mesh-dependent norms, although the chosen norms do not scale as the usual $L^2$-norm. However, we are still able to recover the optimal a priori $L^2$-error estimates for the velocity field, respectively, for high-order and the lowest-order Raviart-Thomas discretizations, for the first and second numerical schemes. Finally, some numerical examples validating the theory are exhibited.


翻译:两种方法都考虑使用Raviart-Thomas 混合限值元素,其中一种是始终的离散化,取决于加权参数的缩放,以$mathcal O(h ⁇ )-1美元为单位;另一种是惩罚型配方,作为原问题的扰动的分解获得,并依赖以$mathcal O(h ⁇ -k-1})美元为单位的参数缩放,美元是Raviart-Thoomas空间的顺序。我们严格地证明,两种方法都稳定,在适当的网状依赖规范方面形成了最佳的趋同数字计划,尽管所选择的规范没有像通常的 $L ⁇ 2美元-诺尔姆那样的缩放。然而,我们仍能够分别从高等级和最低等级的Raviart-Thoomas离化模型中回收一些最理想的前置值($L ⁇ 2美元-eror)的参数缩放值,用于第一个和第二个数字模型。

0
下载
关闭预览

相关内容

专知会员服务
61+阅读 · 2021年3月12日
【干货书】机器学习速查手册,135页pdf
专知会员服务
124+阅读 · 2020年11月20日
【Google】平滑对抗训练,Smooth Adversarial Training
专知会员服务
48+阅读 · 2020年7月4日
专知会员服务
158+阅读 · 2020年1月16日
Keras François Chollet 《Deep Learning with Python 》, 386页pdf
专知会员服务
145+阅读 · 2019年10月12日
灾难性遗忘问题新视角:迁移-干扰平衡
CreateAMind
17+阅读 · 2019年7月6日
Hierarchically Structured Meta-learning
CreateAMind
24+阅读 · 2019年5月22日
动物脑的好奇心和强化学习的好奇心
CreateAMind
10+阅读 · 2019年1月26日
逆强化学习-学习人先验的动机
CreateAMind
15+阅读 · 2019年1月18日
无监督元学习表示学习
CreateAMind
26+阅读 · 2019年1月4日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
【推荐】免费书(草稿):数据科学的数学基础
机器学习研究会
20+阅读 · 2017年10月1日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
The Boundary Element Method of Peridynamics
Arxiv
0+阅读 · 2021年5月31日
VIP会员
相关VIP内容
专知会员服务
61+阅读 · 2021年3月12日
【干货书】机器学习速查手册,135页pdf
专知会员服务
124+阅读 · 2020年11月20日
【Google】平滑对抗训练,Smooth Adversarial Training
专知会员服务
48+阅读 · 2020年7月4日
专知会员服务
158+阅读 · 2020年1月16日
Keras François Chollet 《Deep Learning with Python 》, 386页pdf
专知会员服务
145+阅读 · 2019年10月12日
相关资讯
灾难性遗忘问题新视角:迁移-干扰平衡
CreateAMind
17+阅读 · 2019年7月6日
Hierarchically Structured Meta-learning
CreateAMind
24+阅读 · 2019年5月22日
动物脑的好奇心和强化学习的好奇心
CreateAMind
10+阅读 · 2019年1月26日
逆强化学习-学习人先验的动机
CreateAMind
15+阅读 · 2019年1月18日
无监督元学习表示学习
CreateAMind
26+阅读 · 2019年1月4日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
【推荐】免费书(草稿):数据科学的数学基础
机器学习研究会
20+阅读 · 2017年10月1日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
Top
微信扫码咨询专知VIP会员