For hidden Markov models one of the most popular estimates of the hidden chain is the Viterbi path -- the path maximising the posterior probability. We consider a more general setting, called the pairwise Markov model (PMM), where the joint process consisting of finite-state hidden process and observation process is assumed to be a Markov chain. It has been recently proven that under some conditions the Viterbi path of the PMM can almost surely be extended to infinity, thereby defining the infinite Viterbi decoding of the observation sequence, called the Viterbi process. This was done by constructing a block of observations, called a barrier, which ensures that the Viterbi path goes trough a given state whenever this block occurs in the observation sequence. In this paper we prove that the joint process consisting of Viterbi process and PMM is regenerative. The proof involves a delicate construction of regeneration times which coincide with the occurrences of barriers. As one possible application of our theory, some results on the asymptotics of the Viterbi training algorithm are derived.


翻译:对于隐蔽的Markov模型来说,隐蔽链条最受欢迎的估计之一是维泰比路径 -- -- 维泰比路径,这是使事后概率最大化的路径。我们考虑一个更笼统的设置,称为对称马可夫模型(PMM),在这个设置中,由有限状态隐藏过程和观察过程组成的联合过程被假定为马尔科夫链。最近已经证明,在某些条件下,PMM的维泰比路径几乎肯定会扩展至无限,从而界定观察序列的无限维泰比解码,称为维泰比过程。这是通过构建一个观测块来完成的,称为屏障,确保维泰比路径在观察序列中出现时会穿过一个特定状态。在本文中,我们证明由维特比进程和PMM程序组成的联合过程是再生的。证据涉及一个与障碍发生时间相吻合的微妙的再生时间结构。作为我们理论的一种可能的应用,维特比培训算算出了一些结果。

0
下载
关闭预览

相关内容

Processing 是一门开源编程语言和与之配套的集成开发环境(IDE)的名称。Processing 在电子艺术和视觉设计社区被用来教授编程基础,并运用于大量的新媒体和互动艺术作品中。
最新【深度生成模型】Deep Generative Models,104页ppt
专知会员服务
69+阅读 · 2020年10月24日
深度强化学习策略梯度教程,53页ppt
专知会员服务
179+阅读 · 2020年2月1日
Keras François Chollet 《Deep Learning with Python 》, 386页pdf
专知会员服务
152+阅读 · 2019年10月12日
机器学习入门的经验与建议
专知会员服务
92+阅读 · 2019年10月10日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
28+阅读 · 2019年5月18日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
17+阅读 · 2018年12月24日
Disentangled的假设的探讨
CreateAMind
9+阅读 · 2018年12月10日
【论文】变分推断(Variational inference)的总结
机器学习研究会
39+阅读 · 2017年11月16日
【学习】Hierarchical Softmax
机器学习研究会
4+阅读 · 2017年8月6日
Arxiv
0+阅读 · 2021年5月14日
Arxiv
0+阅读 · 2021年5月13日
Arxiv
14+阅读 · 2020年12月17日
Logically-Constrained Reinforcement Learning
Arxiv
3+阅读 · 2018年12月6日
Paraphrase Generation with Deep Reinforcement Learning
VIP会员
相关资讯
Top
微信扫码咨询专知VIP会员