The Continuous-Time Hidden Markov Model (CT-HMM) is an attractive approach to modeling disease progression due to its ability to describe noisy observations arriving irregularly in time. However, the lack of an efficient parameter learning algorithm for CT-HMM restricts its use to very small models or requires unrealistic constraints on the state transitions. In this paper, we present the first complete characterization of efficient EM-based learning methods for CT-HMM models, as well as the first solution to decoding the optimal state transition sequence and the corresponding state dwelling time. We show that EM-based learning consists of two challenges: the estimation of posterior state probabilities and the computation of end-state conditioned statistics. We solve the first challenge by reformulating the estimation problem as an equivalent discrete time-inhomogeneous hidden Markov model. The second challenge is addressed by adapting three distinct approaches from the continuous time Markov chain (CTMC) literature to the CT-HMM domain. Additionally, we further improve the efficiency of the most efficient method by a factor of the number of states. Then, for decoding, we incorporate a state-of-the-art method from the (CTMC) literature, and extend the end-state conditioned optimal state sequence decoding to the CT-HMM case with the computation of the expected state dwelling time. We demonstrate the use of CT-HMMs with more than 100 states to visualize and predict disease progression using a glaucoma dataset and an Alzheimer's disease dataset, and to decode and visualize the most probable state transition trajectory for individuals on the glaucoma dataset, which helps to identify progressing phenotypes in a comprehensive way. Finally, we apply the CT-HMM modeling and decoding strategy to investigate the progression of language acquisition and development.


翻译:连续时间隐藏 Markov 模型( CT- HMM) 是一个具有吸引力的模拟疾病进展的方法, 因为它能够描述不定期到达的噪音观测。 但是, CT- HMM 缺乏高效参数学习算法, 使得其使用仅限于非常小的模型, 或要求州过渡受到不切实际的限制。 在本文中, 我们首次完整地描述CT- HMM 模型( CT- HMM 模型) 高效的EM基学习方法, 以及解码最佳状态过渡序列和相应州居住时间的首个解决方案。 我们显示, EMCT 的学习包括两个挑战: 估计远地点的直观概率和计算最终状态条件统计数据。 我们解决第一个挑战的方法是将估算问题重新定位为相等的不切实际的时间隐藏 MarkMMMM 模型( CT CT ) 将连续时间链( CT ) 文学( CT CT ) 的三种截然不同的方法调整到 CT 域域域 。 此外, 我们进一步提高了州效率方法的效率, 我们运用了一个州际的数值变量模型, 将MMMMT 和 最接近的路径 数据 数据 数据 使用最精确的模型, 然后用一个状态数据 数据 数据 演示到最精确的模型, 我们使用一个状态数据 数据 数据 数据 演示到, 我们使用一个状态数据 数据 数据 演示到 数据 数据 运行到 和最快的周期的周期 数据 数据 数据 数据 数据 数据 运行到 数据 数据 数据, 运行到 运行到 数据 运行到 数据 运行到 数据 数据 运行到 运行到 运行到 数据 数据 运行到 数据 数据 数据 数据 数据 数据 数据 数据 数据 数据 数据 数据 和 数据 运行到 和 数据 到 数据 数据 数据 运行到 数据 数据 数据 数据 数据 数据 数据 数据 运行到 数据 数据 运行到 数据 数据 数据 数据 数据 数据 运行到 运行到 运行到 运行到 运行到 运行到 运行到 数据 运行到 运行到 运行到 数据 数据

0
下载
关闭预览

相关内容

隐马尔可夫模型(Hidden Markov Model,HMM)是统计模型,它用来描述一个含有隐含未知参数的马尔可夫过程。其难点是从可观察的参数中确定该过程的隐含参数。然后利用这些参数来作进一步的分析,例如模式识别。 其是在被建模的系统被认为是一个马尔可夫过程与未观测到的(隐藏的)的状态的统计马尔可夫模型。
【干货书】机器学习速查手册,135页pdf
专知会员服务
125+阅读 · 2020年11月20日
Keras François Chollet 《Deep Learning with Python 》, 386页pdf
专知会员服务
152+阅读 · 2019年10月12日
强化学习最新教程,17页pdf
专知会员服务
174+阅读 · 2019年10月11日
强化学习三篇论文 避免遗忘等
CreateAMind
19+阅读 · 2019年5月24日
Transferring Knowledge across Learning Processes
CreateAMind
28+阅读 · 2019年5月18日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
17+阅读 · 2018年12月24日
Disentangled的假设的探讨
CreateAMind
9+阅读 · 2018年12月10日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
自然语言处理(二)机器翻译 篇 (NLP: machine translation)
DeepLearning中文论坛
10+阅读 · 2015年7月1日
Arxiv
0+阅读 · 2021年12月27日
Arxiv
10+阅读 · 2021年2月18日
VIP会员
相关资讯
强化学习三篇论文 避免遗忘等
CreateAMind
19+阅读 · 2019年5月24日
Transferring Knowledge across Learning Processes
CreateAMind
28+阅读 · 2019年5月18日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
17+阅读 · 2018年12月24日
Disentangled的假设的探讨
CreateAMind
9+阅读 · 2018年12月10日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
自然语言处理(二)机器翻译 篇 (NLP: machine translation)
DeepLearning中文论坛
10+阅读 · 2015年7月1日
Top
微信扫码咨询专知VIP会员