A Bayesian network is a directed acyclic graph that represents statistical dependencies between variables of a joint probability distribution. A fundamental task in data science is to learn a Bayesian network from observed data. \textsc{Polytree Learning} is the problem of learning an optimal Bayesian network that fulfills the additional property that its underlying undirected graph is a forest. In this work, we revisit the complexity of \textsc{Polytree Learning}. We show that \textsc{Polytree Learning} can be solved in $3^n \cdot |I|^{\mathcal{O}(1)}$ time where $n$ is the number of variables and $|I|$ is the total instance size. Moreover, we consider the influence of the number of variables $d$ that might receive a nonempty parent set in the final DAG on the complexity of \textsc{Polytree Learning}. We show that \textsc{Polytree Learning} has no $f(d)\cdot |I|^{\mathcal{O}(1)}$-time algorithm, unlike Bayesian network learning which can be solved in $2^d \cdot |I|^{\mathcal{O}(1)}$ time. We show that, in contrast, if $d$ and the maximum parent set size are bounded, then we can obtain efficient algorithms.


翻译:Bayesian 网络是一个定向的环绕图, 它代表了共同概率分布变量之间的统计依赖性。 数据科学的一个基本任务是从观察到的数据中学习 Bayesian 网络 。\ textsc{ mathcal{O}} 是学习一个最佳的 Bayesian 网络的问题, 这个网络可以满足其基础非方向图形为森林的额外属性。 在这项工作中, 我们重新审视\ textsc{ Polylearning} 的复杂性 。 我们显示\ textsc{poly relearning} 可以在 $3\ cdt { ⁇ mathcal{O} 时间里从观察的数据中学习 Bayesian 网络。 $n 是变量数, $ 和 $ $I\\\\\\\\ 美元是总实例大小。 此外, 我们考虑在最终 DAG 中可能收到关于 & textc{polylein learlear} 复杂性的变量数量的影响 。 我们显示, we can cloces request nudeal lax commax commax commax 2_O}

0
下载
关闭预览

相关内容

ICML 2021论文收录
专知会员服务
122+阅读 · 2021年5月8日
【清华大学】图随机神经网络,Graph Random Neural Networks
专知会员服务
154+阅读 · 2020年5月26日
Stabilizing Transformers for Reinforcement Learning
专知会员服务
58+阅读 · 2019年10月17日
2019年机器学习框架回顾
专知会员服务
35+阅读 · 2019年10月11日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
27+阅读 · 2019年5月18日
19篇ICML2019论文摘录选读!
专知
28+阅读 · 2019年4月28日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
16+阅读 · 2018年12月24日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
【论文】变分推断(Variational inference)的总结
机器学习研究会
39+阅读 · 2017年11月16日
【学习】Hierarchical Softmax
机器学习研究会
4+阅读 · 2017年8月6日
Arxiv
0+阅读 · 2021年7月12日
Arxiv
32+阅读 · 2021年3月8日
Arxiv
14+阅读 · 2020年12月17日
Arxiv
5+阅读 · 2020年10月21日
Arxiv
4+阅读 · 2019年2月8日
Arxiv
5+阅读 · 2018年5月31日
Arxiv
3+阅读 · 2018年2月7日
VIP会员
相关VIP内容
相关资讯
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
27+阅读 · 2019年5月18日
19篇ICML2019论文摘录选读!
专知
28+阅读 · 2019年4月28日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
16+阅读 · 2018年12月24日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
【论文】变分推断(Variational inference)的总结
机器学习研究会
39+阅读 · 2017年11月16日
【学习】Hierarchical Softmax
机器学习研究会
4+阅读 · 2017年8月6日
相关论文
Arxiv
0+阅读 · 2021年7月12日
Arxiv
32+阅读 · 2021年3月8日
Arxiv
14+阅读 · 2020年12月17日
Arxiv
5+阅读 · 2020年10月21日
Arxiv
4+阅读 · 2019年2月8日
Arxiv
5+阅读 · 2018年5月31日
Arxiv
3+阅读 · 2018年2月7日
Top
微信扫码咨询专知VIP会员