Vector autoregressive (VAR) models are widely used in multivariate time series analysis for describing the short-time dynamics of the data. The reduced-rank VAR models are of particular interest when dealing with high-dimensional and highly correlated time series. Many results for these models are based on the stationarity assumption that does not hold in several applications when the data exhibits structural breaks. We consider a low-rank piecewise stationary VAR model with possible changes in the transition matrix of the observed process. We develop a new test of presence of a change-point in the transition matrix and show its minimax optimality with respect to the dimension and the sample size. Our two-step change-point detection strategy is based on the construction of estimators for the transition matrices and using them in a penalized version of the likelihood ratio test statistic. The effectiveness of the proposed procedure is illustrated on synthetic data.


翻译:摘要:向量自回归(VAR)模型在多元时间序列分析中被广泛用于描述数据的短期动态。对于处理高维和高度相关的时间序列,降低秩的VAR模型具有特殊的优势。这些模型的许多结果都基于平稳性假设,而该假设在许多应用中不成立,当数据出现结构性突变时就表现突出。我们考虑了一个低秩分段平稳的VAR模型,其中可以通过过渡矩阵在观测过程中出现变化。我们开发了一种新的过渡矩阵的变点测试方法,并证明了其在维数和样本大小方面的极小极大优化性质。我们的两步变点检测策略基于对过渡矩阵的估计器的构建,并将它们用于惩罚的似然比统计量。该方法的有效性在合成数据上得到验证。

0
下载
关闭预览

相关内容

【2022新书】机器学习中的统计建模:概念和应用,398页pdf
专知会员服务
134+阅读 · 2022年11月5日
专知会员服务
32+阅读 · 2021年9月16日
专知会员服务
41+阅读 · 2020年12月18日
专知会员服务
50+阅读 · 2020年12月14日
【TAMU】最新《时间序列分析》课程笔记,527页pdf
专知会员服务
177+阅读 · 2020年9月12日
强化学习最新教程,17页pdf
专知会员服务
168+阅读 · 2019年10月11日
深度卷积神经网络中的降采样
极市平台
12+阅读 · 2019年5月24日
Hierarchically Structured Meta-learning
CreateAMind
23+阅读 · 2019年5月22日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
16+阅读 · 2018年12月24日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
Capsule Networks解析
机器学习研究会
10+阅读 · 2017年11月12日
可解释的CNN
CreateAMind
17+阅读 · 2017年10月5日
【推荐】GAN架构入门综述(资源汇总)
机器学习研究会
10+阅读 · 2017年9月3日
【推荐】SVM实例教程
机器学习研究会
17+阅读 · 2017年8月26日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
1+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
Arxiv
0+阅读 · 2023年6月14日
Arxiv
0+阅读 · 2023年6月13日
Arxiv
11+阅读 · 2022年3月16日
Arxiv
54+阅读 · 2022年1月1日
Arxiv
19+阅读 · 2018年5月17日
VIP会员
相关资讯
深度卷积神经网络中的降采样
极市平台
12+阅读 · 2019年5月24日
Hierarchically Structured Meta-learning
CreateAMind
23+阅读 · 2019年5月22日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
16+阅读 · 2018年12月24日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
Capsule Networks解析
机器学习研究会
10+阅读 · 2017年11月12日
可解释的CNN
CreateAMind
17+阅读 · 2017年10月5日
【推荐】GAN架构入门综述(资源汇总)
机器学习研究会
10+阅读 · 2017年9月3日
【推荐】SVM实例教程
机器学习研究会
17+阅读 · 2017年8月26日
相关基金
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
1+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
Top
微信扫码咨询专知VIP会员