The best polynomial approximation and Chebyshev approximation are both important in numerical analysis. In tradition, the best approximation is regarded as more better than the Chebyshev approximation, because it is usually considered in the uniform norm. However, it not always superior to the latter noticed by Trefethen \cite{Trefethen11sixmyths,Trefethen2020} for the algebraic singularity function. Recently Wang \cite{Wang2021best} have proved it in theory. In this paper, we find that for the functions with logarithmic regularities, the pointwise errors of Chebyshev approximation are smaller than the ones of the best approximations except only in the very narrow boundaries at the same degree. The pointwise error for Chebyshev series, truncated at the degree $n$ is $O(n^{-\kappa})$ ($\kappa = \min\{2\gamma+1, 2\delta + 1\}$), but is worse by one power of $n$ in narrow boundary layer near the weak singular endpoints. Theorems are given to explain this effect.


翻译:在数值分析中, 最好的多元近似值和Chebyshev近近似值都很重要。 在传统中, 最好的近近值被认为比 Chebyshev 近近值更好, 因为它通常在统一的规范中加以考虑。 但是, 它并不总是比Trefethen\ cite{ Trefethen1166myths, Trefethen2020} 所注意到的更优。 最近, Wang\ cite{Wang2021Best} 在理论中证明了这一点。 在本文中, 我们发现, 对于对数常规函数来说, 最优近的切比谢夫近近似值的点误差小于最佳近似值, 但在同一程度的非常窄的界限中, 除外。 切比谢夫系列的点误差点是美元( {\\\\\\\\\\\\ kapa} ($) $= min\\\\\\\\\\\\\\ gamma+1, 2\delta + 1\\\\\\\\\\\\\ $ $ $ $ 。 但我们发现, 在弱小边界层中, 在弱的一端点上, 给予更差的一强力更差。

0
下载
关闭预览

相关内容

专知会员服务
50+阅读 · 2020年12月14日
Linux导论,Introduction to Linux,96页ppt
专知会员服务
76+阅读 · 2020年7月26日
【ICML2020】持续图神经网络,Continuous Graph Neural Networks
专知会员服务
146+阅读 · 2020年6月28日
强化学习最新教程,17页pdf
专知会员服务
168+阅读 · 2019年10月11日
图机器学习 2.2-2.4 Properties of Networks, Random Graph
图与推荐
10+阅读 · 2020年3月28日
CCF A类 | 顶级会议RTSS 2019诚邀稿件
Call4Papers
10+阅读 · 2019年4月17日
RL 真经
CreateAMind
5+阅读 · 2018年12月28日
Disentangled的假设的探讨
CreateAMind
9+阅读 · 2018年12月10日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
已删除
将门创投
6+阅读 · 2017年11月27日
【学习】Hierarchical Softmax
机器学习研究会
4+阅读 · 2017年8月6日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
Arxiv
0+阅读 · 2022年1月20日
Arxiv
0+阅读 · 2022年1月19日
Arxiv
0+阅读 · 2022年1月18日
Arxiv
0+阅读 · 2022年1月18日
Arxiv
0+阅读 · 2022年1月17日
VIP会员
相关资讯
图机器学习 2.2-2.4 Properties of Networks, Random Graph
图与推荐
10+阅读 · 2020年3月28日
CCF A类 | 顶级会议RTSS 2019诚邀稿件
Call4Papers
10+阅读 · 2019年4月17日
RL 真经
CreateAMind
5+阅读 · 2018年12月28日
Disentangled的假设的探讨
CreateAMind
9+阅读 · 2018年12月10日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
已删除
将门创投
6+阅读 · 2017年11月27日
【学习】Hierarchical Softmax
机器学习研究会
4+阅读 · 2017年8月6日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
Top
微信扫码咨询专知VIP会员