Hidden Markov models (HMMs) are commonly used for disease progression modeling when the true patient health state is not fully known. Since HMMs may have multiple local optima, performance can be improved by incorporating additional patient covariates to inform estimation. To allow for this, we develop hidden Markov recurrent neural networks (HMRNNs), a special case of recurrent neural networks with the same likelihood function as a corresponding discrete-observation HMM. The HMRNN can be combined with any other predictive neural networks that take patient information as input, with all parameters estimated simultaneously via gradient descent. Using a dataset of Alzheimer's disease patients, we demonstrate how combining the HMRNN with other predictive neural networks improves disease forecasting performance and offers a novel clinical interpretation compared with a standard HMM trained via expectation-maximization.


翻译:隐藏的 Markov 模型(HMMs) 通常用于在真正的病人健康状况不完全为人所知的情况下进行疾病递进模型模型。 由于HMMs可能具有多重局部选择性,因此通过纳入更多的病人共变体来进行估算可以提高性能。为此,我们开发了隐藏的Markov 经常性神经网络(HMNNs),这是一个常见神经网络的特例,其可能性与相应的离散观测功能相同。 HMMNN可以与任何其他预测性神经网络相结合,这些网络将病人信息作为输入,同时通过梯度下降估算所有参数。我们使用阿尔茨海默氏病病人的数据集,演示HMMNN如何将HMN与其他预测性神经网络相结合,改善疾病预报性能,并提供新颖的临床解释,与通过预期-最大化培训的标准HMMMm(HMm)相比。

0
下载
关闭预览

相关内容

隐马尔可夫模型(Hidden Markov Model,HMM)是统计模型,它用来描述一个含有隐含未知参数的马尔可夫过程。其难点是从可观察的参数中确定该过程的隐含参数。然后利用这些参数来作进一步的分析,例如模式识别。 其是在被建模的系统被认为是一个马尔可夫过程与未观测到的(隐藏的)的状态的统计马尔可夫模型。
专知会员服务
69+阅读 · 2021年1月16日
不可错过!华盛顿大学最新《生成式模型》课程,附PPT
专知会员服务
63+阅读 · 2020年12月11日
【干货书】机器学习速查手册,135页pdf
专知会员服务
125+阅读 · 2020年11月20日
【2020新书】概率机器学习,附212页pdf与slides
专知会员服务
108+阅读 · 2020年11月12日
【MIT深度学习课程】深度序列建模,Deep Sequence Modeling
专知会员服务
77+阅读 · 2020年2月3日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
一文读懂依存句法分析
AINLP
16+阅读 · 2019年4月28日
别说还不懂依存句法分析
人工智能头条
23+阅读 · 2019年4月8日
逆强化学习-学习人先验的动机
CreateAMind
15+阅读 · 2019年1月18日
【推荐】RNN最新研究进展综述
机器学习研究会
25+阅读 · 2018年1月6日
Simple Recurrent Unit For Sentence Classification
哈工大SCIR
6+阅读 · 2017年11月29日
Capsule Networks解析
机器学习研究会
11+阅读 · 2017年11月12日
【推荐】RNN/LSTM时序预测
机器学习研究会
25+阅读 · 2017年9月8日
【推荐】(Keras)LSTM多元时序预测教程
机器学习研究会
24+阅读 · 2017年8月14日
Arxiv
1+阅读 · 2021年3月10日
Memory-Gated Recurrent Networks
Arxiv
12+阅读 · 2020年12月24日
Arxiv
19+阅读 · 2018年6月27日
VIP会员
相关资讯
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
一文读懂依存句法分析
AINLP
16+阅读 · 2019年4月28日
别说还不懂依存句法分析
人工智能头条
23+阅读 · 2019年4月8日
逆强化学习-学习人先验的动机
CreateAMind
15+阅读 · 2019年1月18日
【推荐】RNN最新研究进展综述
机器学习研究会
25+阅读 · 2018年1月6日
Simple Recurrent Unit For Sentence Classification
哈工大SCIR
6+阅读 · 2017年11月29日
Capsule Networks解析
机器学习研究会
11+阅读 · 2017年11月12日
【推荐】RNN/LSTM时序预测
机器学习研究会
25+阅读 · 2017年9月8日
【推荐】(Keras)LSTM多元时序预测教程
机器学习研究会
24+阅读 · 2017年8月14日
Top
微信扫码咨询专知VIP会员