Last passage times arise in a number of areas of applied probability, including risk theory and degradation models. Such times are obviously not stopping times since they depend on the whole path of the underlying process. We consider the problem of finding a stopping time that minimises the $L^1$-distance to the last time a spectrally negative L\'evy process $X$ is below zero. Examples of related problems in a finite horizon setting for processes with continuous paths are Du Toit et al. (2008) and Glover and Hulley (2014), where the last zero is predicted for a Brownian motion with drift, and for a transient diffusion, respectively. As we consider the infinite horizon setting, the problem is interesting only when the L\'evy process drifts to $\infty$ which we will assume throughout. Existing results allow us to rewrite the problem as a classic optimal stopping problem, i.e. with an adapted payoff process. We use a direct method to show that an optimal stopping time is given by the first passage time above a level defined in terms of the median of the convolution with itself of the distribution function of $-\inf_{t\geq 0}X_t$. We also characterise when continuous and/or smooth fit holds.


翻译:在应用概率的若干领域,包括风险理论和降解模型,最后的距离出现于一些应用概率领域,包括风险理论和降解模型。这些时间显然不是停留时间,因为它们取决于基础过程的整个路径。我们考虑的问题是寻找一个停止时间,将1美元至最后一时间将光谱负值L\'evy过程的距离最小化为1美元,X美元低于零。在具有连续路径的进程的有限地平线设置中,Du Toit等人(2008年)和Glover和Hulley(2014年)等相关问题的例子,在那里,分别预测布朗的漂移运动和瞬时扩散为最后零。在我们考虑无限的地平面设置时,只有当L\'evy过程漂浮到我们将全程假定的1美元/infty值时,问题才有趣。现有结果允许我们重新将问题改写为典型的最佳停止问题,即调整支付过程。我们使用直接的方法表明,在持续/XQq}时,最理想的停止时间是超过以美元/xgexxxxxx(我们是否保持平稳/xxq) 的递增的递增的中位函数。

0
下载
关闭预览

相关内容

Processing 是一门开源编程语言和与之配套的集成开发环境(IDE)的名称。Processing 在电子艺术和视觉设计社区被用来教授编程基础,并运用于大量的新媒体和互动艺术作品中。
《DeepGCNs: Making GCNs Go as Deep as CNNs》
专知会员服务
31+阅读 · 2019年10月17日
Keras François Chollet 《Deep Learning with Python 》, 386页pdf
专知会员服务
163+阅读 · 2019年10月12日
强化学习最新教程,17页pdf
专知会员服务
182+阅读 · 2019年10月11日
Transferring Knowledge across Learning Processes
CreateAMind
29+阅读 · 2019年5月18日
CCF A类 | 顶级会议RTSS 2019诚邀稿件
Call4Papers
10+阅读 · 2019年4月17日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
【SIGIR2018】五篇对抗训练文章
专知
12+阅读 · 2018年7月9日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
Risk-Aware Active Inverse Reinforcement Learning
Arxiv
8+阅读 · 2019年1月8日
Arxiv
3+阅读 · 2018年8月17日
Arxiv
5+阅读 · 2018年4月22日
Arxiv
3+阅读 · 2018年1月31日
VIP会员
相关VIP内容
《DeepGCNs: Making GCNs Go as Deep as CNNs》
专知会员服务
31+阅读 · 2019年10月17日
Keras François Chollet 《Deep Learning with Python 》, 386页pdf
专知会员服务
163+阅读 · 2019年10月12日
强化学习最新教程,17页pdf
专知会员服务
182+阅读 · 2019年10月11日
相关资讯
Transferring Knowledge across Learning Processes
CreateAMind
29+阅读 · 2019年5月18日
CCF A类 | 顶级会议RTSS 2019诚邀稿件
Call4Papers
10+阅读 · 2019年4月17日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
【SIGIR2018】五篇对抗训练文章
专知
12+阅读 · 2018年7月9日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
相关论文
Risk-Aware Active Inverse Reinforcement Learning
Arxiv
8+阅读 · 2019年1月8日
Arxiv
3+阅读 · 2018年8月17日
Arxiv
5+阅读 · 2018年4月22日
Arxiv
3+阅读 · 2018年1月31日
Top
微信扫码咨询专知VIP会员