Finite Difference methods (FD) are one of the oldest and simplest methods used for solving differential equations. Theoretical results have been obtained during the last six decades regarding the accuracy, stability, and convergence of the FD method for partial differential equations (PDE). The local truncation error is defined by applying the difference operator to the exact solution $u$. In the classical FD method, the orders of the global error and the truncation error are the same. Block Finite Difference methods (BFD) are finite difference methods in which the domain is divided into blocks, or cells, containing two or more grid points with a different scheme used for each grid point, unlike the standard FD method. In this approach, the interaction between the different truncation errors and the dynamics of the scheme may prevent the error from growing, hence error reduction is obtained. The phenomenon in which the order of the global error is smaller than the one of the truncation error is called {\em error inhibition} It is worth noting that the structure of the BFD method is similar to the structure of the DG method as far as the linear algebraic system to be solved is concerned. In this method as well, the phenomenon of error inhibition may be observed. We first show that our BFD scheme can be viewed as a DG scheme, proving stability during the process. Then, performing a Fourier like analysis, we prove optimal convergence of the BFD scheme.


翻译:局部差异方法(FD)是用来解决差别方程式的最古老和最简单的方法之一。在过去六十年中,在部分差异方程式(PDE)的准确性、稳定性和趋同性方面,已经取得了理论结果。当地截断错误的定义是通过将差分操作员应用到确切的解决方案$u美元来界定。在传统的FD方法中,全球差错和抽离错误的顺序是相同的。Block Finite差异方法(BFD)是有限的差异方法,其中域分为块或单元格,含有两个或两个以上的网格点,每个网格点使用不同的办法,与标准的FD方法不同。在这种方法中,不同的调离差差差差差差差差差差差差差差差差与该办法的动态之间的相互作用可能会防止差错增加,从而减少差差差差差差。在传统的FD方法中,全球差差差差差的次序被称作 Exemb rime destruction},值得注意的是,B方法的结构与DG方法的结构相似, 在最远处,我们所观察到的公式中,我们所观察到的是, 一种最优的计算方法可以证明。

0
下载
关闭预览

相关内容

专知会员服务
50+阅读 · 2020年12月14日
【干货书】机器学习速查手册,135页pdf
专知会员服务
125+阅读 · 2020年11月20日
迁移学习简明教程,11页ppt
专知会员服务
107+阅读 · 2020年8月4日
Linux导论,Introduction to Linux,96页ppt
专知会员服务
78+阅读 · 2020年7月26日
【SIGGRAPH2019】TensorFlow 2.0深度学习计算机图形学应用
专知会员服务
39+阅读 · 2019年10月9日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
28+阅读 · 2019年5月18日
人工智能 | ISAIR 2019诚邀稿件(推荐SCI期刊)
Call4Papers
6+阅读 · 2019年4月1日
IEEE | DSC 2019诚邀稿件 (EI检索)
Call4Papers
10+阅读 · 2019年2月25日
动物脑的好奇心和强化学习的好奇心
CreateAMind
10+阅读 · 2019年1月26日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
17+阅读 · 2018年12月24日
Disentangled的假设的探讨
CreateAMind
9+阅读 · 2018年12月10日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
神经网络学习率设置
机器学习研究会
4+阅读 · 2018年3月3日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
Multidimensional Scaling for Big Data
Arxiv
0+阅读 · 2021年1月14日
VIP会员
相关VIP内容
相关资讯
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
28+阅读 · 2019年5月18日
人工智能 | ISAIR 2019诚邀稿件(推荐SCI期刊)
Call4Papers
6+阅读 · 2019年4月1日
IEEE | DSC 2019诚邀稿件 (EI检索)
Call4Papers
10+阅读 · 2019年2月25日
动物脑的好奇心和强化学习的好奇心
CreateAMind
10+阅读 · 2019年1月26日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
17+阅读 · 2018年12月24日
Disentangled的假设的探讨
CreateAMind
9+阅读 · 2018年12月10日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
神经网络学习率设置
机器学习研究会
4+阅读 · 2018年3月3日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
Top
微信扫码咨询专知VIP会员