Chebyshev spectral methods are widely used in numerical computations. When the underlying function has a singularity, it has been observed by L. N. Trefethen in 2011 that its Chebyshev interpolants exhibit an error localization property, that is, their errors in a neighborhood of the singularity are obviously larger than elsewhere. In this paper, we first present a pointwise error analysis for Chebyshev projections of functions with a singularity and prove that the rate of convergence of Chebyshev projections of degree $n$ at each point away from the singularity is one power of $n$ faster than that of at the singularity. This gives a rigorous justification for the error localization of Chebyshev projections. We then extend the framework of our analysis to Chebyshev interpolants, Chebyshev spectral differentiations and Legendre projections and justify their error localization using similar arguments. As a result, we find that Chebyshev spectral differentiations converge faster than their best counterparts except in a neighborhood of the singularity and, in the particular case where the singularity is located in the interior of interval, they converge even faster than their best counterparts in the maximum norm.


翻译:Chebyshev谱方法广泛应用于数值计算中。2011年,L.N.特里菲森观察到,当基础函数具有奇点时,它们的Chebyshev插值在奇点附近的误差显然比其他地方大。本文首先对基础函数的Chebyshev投影进行了逐点误差分析,并证明了除奇点外的每个点上Chebyshev投影收敛阶数比奇点快一个$n$的幂。这为Chebyshev投影的误差定位提供了严格的正当理由。然后,我们将我们的分析框架扩展到了Chebyshev插值、Chebyshev谱微分和Legendre投影,并使用类似的论证证明了它们的误差定位。结果发现,除了在奇点附近以外,Chebyshev谱微分的收敛速度比最好的对应物要快,而且在奇点位于区间内部的特定情况下,它们在最大范数下收敛得甚至比最佳对应物还要快。

0
下载
关闭预览

相关内容

【2022新书】谱图理论,Spectral Graph Theory,100页pdf
专知会员服务
74+阅读 · 2022年4月15日
VCIP 2022 Call for Demos
CCF多媒体专委会
1+阅读 · 2022年6月6日
神经网络的损失函数为什么是非凸的?
极市平台
12+阅读 · 2019年9月26日
【泡泡一分钟】通过学习轮式里程计和IMU误差的定位
泡泡机器人SLAM
133+阅读 · 2019年9月12日
深度自进化聚类:Deep Self-Evolution Clustering
我爱读PAMI
15+阅读 · 2019年4月13日
无监督元学习表示学习
CreateAMind
27+阅读 · 2019年1月4日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
16+阅读 · 2018年12月24日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
Capsule Networks解析
机器学习研究会
11+阅读 · 2017年11月12日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
1+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
VIP会员
相关VIP内容
【2022新书】谱图理论,Spectral Graph Theory,100页pdf
专知会员服务
74+阅读 · 2022年4月15日
相关资讯
VCIP 2022 Call for Demos
CCF多媒体专委会
1+阅读 · 2022年6月6日
神经网络的损失函数为什么是非凸的?
极市平台
12+阅读 · 2019年9月26日
【泡泡一分钟】通过学习轮式里程计和IMU误差的定位
泡泡机器人SLAM
133+阅读 · 2019年9月12日
深度自进化聚类:Deep Self-Evolution Clustering
我爱读PAMI
15+阅读 · 2019年4月13日
无监督元学习表示学习
CreateAMind
27+阅读 · 2019年1月4日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
16+阅读 · 2018年12月24日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
Capsule Networks解析
机器学习研究会
11+阅读 · 2017年11月12日
相关基金
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
1+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
Top
微信扫码咨询专知VIP会员