The paper proposes a new hybrid Bayesian network learning algorithm, termed Forward Early Dropping Hill Climbing (FEDHC), designed to work with either continuous or categorical data. FEDHC consists of a skeleton identification phase (learning the conditional associations among the variables) followed by the scoring phase that assigns the (causal) directions. Specifically for the case of continuous data, a robust to outliers version of FEDHC is also proposed. Further, the paper manifests that the only implementation of MMHC in the statistical software \textit{R}, is prohibitively expensive and a new implementation is offered. The FEDHC is tested via Monte Carlo simulations that distinctly show it is computationally efficient, and produces Bayesian networks of similar to, or of higher accuracy than MMHC and PCHC. Specifically, FEDHC yields more accurate Bayesian networks than PCHC with continuous data but less accurate with categorical data. Finally, an application of FEDHC, PCHC and MMHC algorithms to real data, from the field of economics, is demonstrated using the statistical software \textit{R}.


翻译:该文件提出了一个新的混合贝叶西亚网络学习算法,称为 " 前早期下降山爬行 " (FEDHC),旨在利用连续或绝对的数据。FEDHC由一个骨干识别阶段(学习各种变量之间的有条件关联)组成,然后是标出(因果)方向的评分阶段。具体地说,就连续数据而言,还提出了一种强于外推版的FEDHC。此外,该文件表明,统计软件\ textit{R}中只有MMMHC(早期下降山爬行)应用MMHC(MMHC),费用太高了,并且提供了新的实施。FEDHC(FEDHC)通过蒙特卡洛模拟测试,明显地表明它具有计算效率,并生成了与MMHC和PCH(PCH)相似或更精确的巴伊西亚网络。具体地说,FEDHC(BHC)比PCHC(PHC)产生比PHC更准确的连续数据,但与绝对数据不那么准确。最后,FEDHC、PCHC和MMHC和MHC(MHC)算算算方法在经济领域的实际数据的应用,使用统计软件证明。从统计软件(textrit{R})。

0
下载
关闭预览

相关内容

【ACML2020】张量网络机器学习:最近的进展和前沿,109页ppt
专知会员服务
55+阅读 · 2020年12月15日
【干货书】机器学习速查手册,135页pdf
专知会员服务
127+阅读 · 2020年11月20日
Keras François Chollet 《Deep Learning with Python 》, 386页pdf
专知会员服务
159+阅读 · 2019年10月12日
【论文笔记】通俗理解少样本文本分类 (Few-Shot Text Classification) (1)
深度学习自然语言处理
7+阅读 · 2020年4月8日
深度自进化聚类:Deep Self-Evolution Clustering
我爱读PAMI
15+阅读 · 2019年4月13日
小样本学习(Few-shot Learning)综述
云栖社区
22+阅读 · 2019年4月6日
无监督元学习表示学习
CreateAMind
27+阅读 · 2019年1月4日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
【推荐】自动特征工程开源框架
机器学习研究会
17+阅读 · 2017年11月7日
强化学习 cartpole_a3c
CreateAMind
9+阅读 · 2017年7月21日
Arxiv
1+阅读 · 2021年5月29日
Recent advances in deep learning theory
Arxiv
50+阅读 · 2020年12月20日
A Survey on Bayesian Deep Learning
Arxiv
63+阅读 · 2020年7月2日
Learning to Importance Sample in Primary Sample Space
Stock Chart Pattern recognition with Deep Learning
Arxiv
6+阅读 · 2018年8月1日
VIP会员
相关资讯
【论文笔记】通俗理解少样本文本分类 (Few-Shot Text Classification) (1)
深度学习自然语言处理
7+阅读 · 2020年4月8日
深度自进化聚类:Deep Self-Evolution Clustering
我爱读PAMI
15+阅读 · 2019年4月13日
小样本学习(Few-shot Learning)综述
云栖社区
22+阅读 · 2019年4月6日
无监督元学习表示学习
CreateAMind
27+阅读 · 2019年1月4日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
【推荐】自动特征工程开源框架
机器学习研究会
17+阅读 · 2017年11月7日
强化学习 cartpole_a3c
CreateAMind
9+阅读 · 2017年7月21日
相关论文
Top
微信扫码咨询专知VIP会员