Probabilistic context-free grammars (PCFGs) and dynamic Bayesian networks (DBNs) are widely used sequence models with complementary strengths and limitations. While PCFGs allow for nested hierarchical dependencies (tree structures), their latent variables (non-terminal symbols) have to be discrete. In contrast, DBNs allow for continuous latent variables, but the dependencies are strictly sequential (chain structure). Therefore, neither can be applied if the latent variables are assumed to be continuous and also to have a nested hierarchical dependency structure. In this paper, we present Recursive Bayesian Networks (RBNs), which generalise and unify PCFGs and DBNs, combining their strengths and containing both as special cases. RBNs define a joint distribution over tree-structured Bayesian networks with discrete or continuous latent variables. The main challenge lies in performing joint inference over the exponential number of possible structures and the continuous variables. We provide two solutions: 1) For arbitrary RBNs, we generalise inside and outside probabilities from PCFGs to the mixed discrete-continuous case, which allows for maximum posterior estimates of the continuous latent variables via gradient descent, while marginalising over network structures. 2) For Gaussian RBNs, we additionally derive an analytic approximation, allowing for robust parameter optimisation and Bayesian inference. The capacity and diverse applications of RBNs are illustrated on two examples: In a quantitative evaluation on synthetic data, we demonstrate and discuss the advantage of RBNs for segmentation and tree induction from noisy sequences, compared to change point detection and hierarchical clustering. In an application to musical data, we approach the unsolved problem of hierarchical music analysis from the raw note level and compare our results to expert annotations.


翻译:因此,如果潜在变量被假定为连续的,并且有一个嵌入的上下层依赖结构,则不能应用这些潜在变量(PCFGs)和动态的Bayesian网络(DBNs)。在本文件中,我们介绍了Recurive Bayesian 网络(RBNs)的精度序列模型(RBNs),这些模型允许嵌套的等级依赖(树结构),其潜在变量(非终点符号)必须是离散的。相比之下,DBNs允许连续的潜伏变量,但这种不确定性是严格顺序(链结构)。因此,如果潜在变量被假定为连续的,并且同时有一个嵌入的上层依赖结构。因此,如果假设潜在变量是连续的,那么,则无法应用这两个选项都无法应用。对于我们任意的 RBISs,我们泛泛泛地展示了Bayesian 网络的精度应用(RBRBNs) (RBNs) (RCFGs) (RCFGs) (RCFGs) 和外部的内和外部的精度变量的精度变量的精度变量的精度变量的精度变量, 则通过离差值数据分析,使得一个连续的直位值数据(RBILIL2) 的直值数据分析, 的直值数据能够通过离差值数据进行两次的直值数据分析。

0
下载
关闭预览

相关内容

专知会员服务
28+阅读 · 2021年8月2日
ICML 2021论文收录
专知会员服务
122+阅读 · 2021年5月8日
不可错过!华盛顿大学最新《生成式模型》课程,附PPT
专知会员服务
63+阅读 · 2020年12月11日
专知会员服务
52+阅读 · 2020年9月7日
【MIT深度学习课程】深度序列建模,Deep Sequence Modeling
专知会员服务
77+阅读 · 2020年2月3日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
Hierarchical Imitation - Reinforcement Learning
CreateAMind
19+阅读 · 2018年5月25日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
【论文】变分推断(Variational inference)的总结
机器学习研究会
39+阅读 · 2017年11月16日
Adversarial Variational Bayes: Unifying VAE and GAN 代码
CreateAMind
7+阅读 · 2017年10月4日
【推荐】RNN/LSTM时序预测
机器学习研究会
25+阅读 · 2017年9月8日
强化学习族谱
CreateAMind
26+阅读 · 2017年8月2日
强化学习 cartpole_a3c
CreateAMind
9+阅读 · 2017年7月21日
Arxiv
0+阅读 · 2022年2月8日
Arxiv
0+阅读 · 2022年2月4日
Bayesian Attention Belief Networks
Arxiv
9+阅读 · 2021年6月9日
Arxiv
7+阅读 · 2019年6月20日
Arxiv
19+阅读 · 2018年6月27日
Arxiv
3+阅读 · 2018年6月18日
Arxiv
7+阅读 · 2018年3月21日
Arxiv
5+阅读 · 2018年1月16日
VIP会员
相关资讯
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
Hierarchical Imitation - Reinforcement Learning
CreateAMind
19+阅读 · 2018年5月25日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
【论文】变分推断(Variational inference)的总结
机器学习研究会
39+阅读 · 2017年11月16日
Adversarial Variational Bayes: Unifying VAE and GAN 代码
CreateAMind
7+阅读 · 2017年10月4日
【推荐】RNN/LSTM时序预测
机器学习研究会
25+阅读 · 2017年9月8日
强化学习族谱
CreateAMind
26+阅读 · 2017年8月2日
强化学习 cartpole_a3c
CreateAMind
9+阅读 · 2017年7月21日
相关论文
Arxiv
0+阅读 · 2022年2月8日
Arxiv
0+阅读 · 2022年2月4日
Bayesian Attention Belief Networks
Arxiv
9+阅读 · 2021年6月9日
Arxiv
7+阅读 · 2019年6月20日
Arxiv
19+阅读 · 2018年6月27日
Arxiv
3+阅读 · 2018年6月18日
Arxiv
7+阅读 · 2018年3月21日
Arxiv
5+阅读 · 2018年1月16日
Top
微信扫码咨询专知VIP会员