In this study, we develop an asymptotic theory of nonparametric regression for a locally stationary functional time series. First, we introduce the notion of a locally stationary functional time series (LSFTS) that takes values in a semi-metric space. Then, we propose a nonparametric model for LSFTS with a regression function that changes smoothly over time. We establish the uniform convergence rates of a class of kernel estimators, the Nadaraya-Watson (NW) estimator of the regression function, and a central limit theorem of the NW estimator.


翻译:在本研究中,我们为当地固定功能时间序列开发了非参数回归的无参数理论。 首先,我们引入了当地固定功能时间序列的概念,该功能序列在半计量空间中取值。 然后,我们为LSFTS提出了一个非参数模型,该模型的回归函数随时间而平稳变化。我们为一组内核测量员、Nadaraya-Watson(NW)的回归函数测量员以及NWS测量员的中央限值确定了统一的趋同率。

0
下载
关闭预览

相关内容

【图与几何深度学习】Graph and geometric deep learning,49页ppt
专知会员服务
50+阅读 · 2020年12月14日
【干货书】机器学习速查手册,135页pdf
专知会员服务
122+阅读 · 2020年11月20日
MIT新书《强化学习与最优控制》
专知会员服务
270+阅读 · 2019年10月9日
Unsupervised Learning via Meta-Learning
CreateAMind
41+阅读 · 2019年1月3日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
16+阅读 · 2018年12月24日
R语言回归分析指南
R语言中文社区
4+阅读 · 2018年12月19日
Disentangled的假设的探讨
CreateAMind
9+阅读 · 2018年12月10日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
关于「Xception」和「DeepLab V3+」的那些事
PaperWeekly
8+阅读 · 2018年3月26日
【学习】Hierarchical Softmax
机器学习研究会
4+阅读 · 2017年8月6日
Arxiv
0+阅读 · 2021年11月9日
Arxiv
0+阅读 · 2021年11月8日
Arxiv
0+阅读 · 2021年11月5日
Arxiv
3+阅读 · 2017年12月1日
VIP会员
相关资讯
Unsupervised Learning via Meta-Learning
CreateAMind
41+阅读 · 2019年1月3日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
16+阅读 · 2018年12月24日
R语言回归分析指南
R语言中文社区
4+阅读 · 2018年12月19日
Disentangled的假设的探讨
CreateAMind
9+阅读 · 2018年12月10日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
关于「Xception」和「DeepLab V3+」的那些事
PaperWeekly
8+阅读 · 2018年3月26日
【学习】Hierarchical Softmax
机器学习研究会
4+阅读 · 2017年8月6日
Top
微信扫码咨询专知VIP会员