Let $z_{1},z_{2},...,z_{N}$ be a sequence of distinct grid points. A finite difference formula approximates the $m$-th derivative $f^{(m)}(0)$ as $\sum w_{k}f(z_{k})$, with $w_{k}$ being the weights. We derive an algorithm for finding the weights $w_{k}$ which is an improvement of an algorithm of Fornberg (\emph{Mathematics of Computation}, vol. 51 (1988), p. 699-706). This algorithm uses fewer arithmetic operations than that of Fornberg by a factor of $4/(5m+5)$ while being equally accurate. The algorithm that we derive computes finite difference weights accurately even when $m$, the order of the derivative, is as high as 16. In addition, the algorithm generalizes easily to the efficient computation of spectral differentiation matrices. The order of accuracy of the finite difference formula for $f^{(m)}(0)$ with grid points $hz_{k}$, $1\leq k\leq N$, is typically $\mathcal{O}(h^{N-m})$. However, the most commonly used finite difference formulas have an order of accuracy that is higher than the typical. For instance, the centered difference approximation $(f(h)-2f(0)+f(-h))/h^{2}$ to $f"(0)$ has an order of accuracy equal to 2 not 1. Even unsymmetric finite difference formulas can exhibit such superconvergence or boosted order of accuracy, as shown by the explicit algebraic condition that we derive. If the grid points are real, we prove a basic result stating that the order of accuracy can never be boosted by more than 1.


翻译:Letsz ⁇ 1},z ⁇ 2},...,...,z ⁇ N}美元是一个不同的网格点序列。一个有限差差价公式在同样精确的情况下,大约使用美元=美元=美元=美元=美元=美元=美元=美元=美元=美元=美元=美元=美元=美元=美元=美元=美元=美元=美元=美元=美元=美元=美元=美元=美元=美元=美元=美元=美元=美元=美元=美元=美元=美元=美元=美元=美元=美元=不同网格=美元=美元=美元=美元=美元=美元=美元=美元=美元=美元=美元=美元=美元=美元=美元=美元=美元=美元=美元=美元=美元=美元=美元=美元=美元=美元=美元=美元=美元=美元=美元=美元=美元=美元=美元=美元=美元=美元=美元=美元=美元=美元=美元=美元=美元=美元=美元=美元=美元=货币=美元=美元=美元=货币=美元=美元=货币=美元=美元=美元=美元=货币=美元=美元=美元=美元=美元=美元=美元=美元=美元=美元=美元=美元=货币=直=美元=美元=美元=美元=美元=美元=美元=美元=美元=美元=美元=美元=美元=美元=直数=直数=直差值=直值=直值=直值=直值=直值=美元=美元=美元=美元=美元=美元=美元=美元=美元=美元=美元=美元=直值=直值=正差=直值=

0
下载
关闭预览

相关内容

因果图,Causal Graphs,52页ppt
专知会员服务
246+阅读 · 2020年4月19日
专知会员服务
159+阅读 · 2020年1月16日
强化学习最新教程,17页pdf
专知会员服务
174+阅读 · 2019年10月11日
Transferring Knowledge across Learning Processes
CreateAMind
27+阅读 · 2019年5月18日
19篇ICML2019论文摘录选读!
专知
28+阅读 · 2019年4月28日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
16+阅读 · 2018年12月24日
条件GAN重大改进!cGANs with Projection Discriminator
CreateAMind
8+阅读 · 2018年2月7日
【论文】变分推断(Variational inference)的总结
机器学习研究会
39+阅读 · 2017年11月16日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
The Measure of Intelligence
Arxiv
6+阅读 · 2019年11月5日
Meta-Learning with Implicit Gradients
Arxiv
13+阅读 · 2019年9月10日
Arxiv
3+阅读 · 2018年10月11日
Arxiv
6+阅读 · 2018年10月3日
VIP会员
相关资讯
Transferring Knowledge across Learning Processes
CreateAMind
27+阅读 · 2019年5月18日
19篇ICML2019论文摘录选读!
专知
28+阅读 · 2019年4月28日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
16+阅读 · 2018年12月24日
条件GAN重大改进!cGANs with Projection Discriminator
CreateAMind
8+阅读 · 2018年2月7日
【论文】变分推断(Variational inference)的总结
机器学习研究会
39+阅读 · 2017年11月16日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
Top
微信扫码咨询专知VIP会员