Measuring the predictability and complexity of time series is an essential tool in designing and controlling the nonlinear system. Different entropy measures exist in the literature to analyze the predictability and complexity of time series. However, the existed methods have some drawbacks related to a strong dependence of entropy on the parameters of the methods, as well as on the length and amplitude of the time series. To overcome these difficulties, this study proposes a new method for estimating the entropy of a time series using the LogNNet neural network model. The LogNNet reservoir matrix is filled with the time series elements according to our algorithm. The network is trained on MNIST-10 dataset and the classification accuracy is calculated. The accuracy is considered as the entropy measure and denoted by NNetEn. The novelty of entropy calculation is that the time series is involved in mixing the input information in the reservoir. The greater complexity of the time series leads to the better ability of the neural network to learn, and to the higher classification accuracy and NNetEn values. The epochs number in the training process of LogNNet is considered as the control parameter. We introduce a new time series characteristic, called time series learning inertia, that determines the learning rate of the neural network. The robustness and efficiency of the method is verified on chaotic, periodic, random, binary and constant time series. The comparison of NNetEn with other methods of entropy estimation demonstrates that our method is more robust and accurate and can be widely used in practice.


翻译:测量时间序列的可预测性和复杂性是设计和控制非线性系统的一个基本工具。文献中存在分析时间序列的可预测性和复杂性的不同量度。但是,现有方法有一些缺点,因为对方法参数以及时间序列的长度和振幅有很强的依赖性。为了克服这些困难,本研究提出一种新的方法,用以利用LogNNet神经网络模型来估计时间序列的增缩率。LogNNet储油层矩阵根据我们的算法以时间序列要素填充。网络接受MNIST-10数据集的培训,并计算分类准确性。准确性被视为对方法参数的增缩度,NNetEnNet En, 以及时间序列的长度和增缩度。时间序列的更复杂程度使得神经网络网络学习能力更强,更精确性和NNetEnterEn值的精确性要素数被广泛考虑为NMIST-NNet的精度和nentral Restro 方法的精度。我们用新的时间序列来测量, 学习时间序列的精度和精确性方法被广泛用来确定。

0
下载
关闭预览

相关内容

【图神经网络导论】Intro to Graph Neural Networks,176页ppt
专知会员服务
125+阅读 · 2021年6月4日
专知会员服务
76+阅读 · 2021年3月16日
【Google】梯度下降,48页ppt
专知会员服务
79+阅读 · 2020年12月5日
【干货书】机器学习速查手册,135页pdf
专知会员服务
124+阅读 · 2020年11月20日
神经常微分方程教程,50页ppt,A brief tutorial on Neural ODEs
专知会员服务
70+阅读 · 2020年8月2日
Python计算导论,560页pdf,Introduction to Computing Using Python
专知会员服务
72+阅读 · 2020年5月5日
Transferring Knowledge across Learning Processes
CreateAMind
26+阅读 · 2019年5月18日
已删除
将门创投
6+阅读 · 2019年4月22日
人工智能 | CCF推荐期刊专刊约稿信息6条
Call4Papers
5+阅读 · 2019年2月18日
人工智能 | SCI期刊专刊信息3条
Call4Papers
5+阅读 · 2019年1月10日
人工智能 | 国际会议信息10条
Call4Papers
5+阅读 · 2018年12月18日
Hierarchical Imitation - Reinforcement Learning
CreateAMind
19+阅读 · 2018年5月25日
【学习】(Python)SVM数据分类
机器学习研究会
6+阅读 · 2017年10月15日
强化学习 cartpole_a3c
CreateAMind
9+阅读 · 2017年7月21日
Arxiv
0+阅读 · 2021年10月22日
Arxiv
20+阅读 · 2021年2月28日
Implicit Maximum Likelihood Estimation
Arxiv
7+阅读 · 2018年9月24日
Arxiv
3+阅读 · 2018年8月17日
Arxiv
5+阅读 · 2018年5月1日
VIP会员
相关VIP内容
相关资讯
Transferring Knowledge across Learning Processes
CreateAMind
26+阅读 · 2019年5月18日
已删除
将门创投
6+阅读 · 2019年4月22日
人工智能 | CCF推荐期刊专刊约稿信息6条
Call4Papers
5+阅读 · 2019年2月18日
人工智能 | SCI期刊专刊信息3条
Call4Papers
5+阅读 · 2019年1月10日
人工智能 | 国际会议信息10条
Call4Papers
5+阅读 · 2018年12月18日
Hierarchical Imitation - Reinforcement Learning
CreateAMind
19+阅读 · 2018年5月25日
【学习】(Python)SVM数据分类
机器学习研究会
6+阅读 · 2017年10月15日
强化学习 cartpole_a3c
CreateAMind
9+阅读 · 2017年7月21日
Top
微信扫码咨询专知VIP会员