In this paper we consider an ergodic diffusion process with jumps whose drift coefficient depends on $\mu$ and volatility coefficient depends on $\sigma$, two unknown parameters. We suppose that the process is discretely observed at the instants (t n i)i=0,...,n with $\Delta$n = sup i=0,...,n--1 (t n i+1 -- t n i) $\rightarrow$ 0. We introduce an estimator of $\theta$ := ($\mu$, $\sigma$), based on a contrast function, which is asymptotically gaussian without requiring any conditions on the rate at which $\Delta$n $\rightarrow$ 0, assuming a finite jump activity. This extends earlier results where a condition on the step discretization was needed (see [13],[28]) or where only the estimation of the drift parameter was considered (see [2]). In general situations, our contrast function is not explicit and in practise one has to resort to some approximation. We propose explicit approximations of the contrast function, such that the estimation of $\theta$ is feasible under the condition that n$\Delta$ k n $\rightarrow$ 0 where k > 0 can be arbitrarily large. This extends the results obtained by Kessler [17] in the case of continuous processes. Efficient drift estimation, efficient volatility estimation,ergodic properties, high frequency data, L{\'e}vy-driven SDE, thresholding methods.


翻译:在本文中,我们考虑的是以跳跃为转移扩散过程,其漂移系数取决于$mu美元,波动系数取决于2个未知参数。我们假设该过程在瞬时(tn i)i=0,...,以$delta$n=sup i=0,...,n-1(tn i+1 -- t n i) rightrow $.我们采用一个估计值$(tta$):=$mu,美元,波动系数取决于美元,两个未知参数。我们假设该过程在瞬时(tn n i) i=0,以美元=0,美元= i) =0,xn,xn,xn,n+1,n+1,n+1,或仅考虑漂移参数的估算值(见[2]。一般情况下,我们的对比函数并不明确,而实际上不得不采用某种近似值。我们建议,在直径的直径直的直径值值值值值值值值值下,xxxxxxxxxxxxxxxxxxxxalalalalalalalalalalalalal 。

0
下载
关闭预览

相关内容

专知会员服务
50+阅读 · 2020年12月14日
因果图,Causal Graphs,52页ppt
专知会员服务
246+阅读 · 2020年4月19日
Stabilizing Transformers for Reinforcement Learning
专知会员服务
59+阅读 · 2019年10月17日
强化学习最新教程,17页pdf
专知会员服务
174+阅读 · 2019年10月11日
机器学习入门的经验与建议
专知会员服务
92+阅读 · 2019年10月10日
MIT新书《强化学习与最优控制》
专知会员服务
275+阅读 · 2019年10月9日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
28+阅读 · 2019年5月18日
逆强化学习-学习人先验的动机
CreateAMind
15+阅读 · 2019年1月18日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
【推荐】(Keras)LSTM多元时序预测教程
机器学习研究会
24+阅读 · 2017年8月14日
【学习】Hierarchical Softmax
机器学习研究会
4+阅读 · 2017年8月6日
强化学习族谱
CreateAMind
26+阅读 · 2017年8月2日
Arxiv
0+阅读 · 2021年1月19日
Arxiv
0+阅读 · 2021年1月15日
Arxiv
0+阅读 · 2021年1月14日
Implicit Maximum Likelihood Estimation
Arxiv
7+阅读 · 2018年9月24日
VIP会员
相关VIP内容
专知会员服务
50+阅读 · 2020年12月14日
因果图,Causal Graphs,52页ppt
专知会员服务
246+阅读 · 2020年4月19日
Stabilizing Transformers for Reinforcement Learning
专知会员服务
59+阅读 · 2019年10月17日
强化学习最新教程,17页pdf
专知会员服务
174+阅读 · 2019年10月11日
机器学习入门的经验与建议
专知会员服务
92+阅读 · 2019年10月10日
MIT新书《强化学习与最优控制》
专知会员服务
275+阅读 · 2019年10月9日
相关资讯
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
28+阅读 · 2019年5月18日
逆强化学习-学习人先验的动机
CreateAMind
15+阅读 · 2019年1月18日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
【推荐】(Keras)LSTM多元时序预测教程
机器学习研究会
24+阅读 · 2017年8月14日
【学习】Hierarchical Softmax
机器学习研究会
4+阅读 · 2017年8月6日
强化学习族谱
CreateAMind
26+阅读 · 2017年8月2日
Top
微信扫码咨询专知VIP会员