Bayes additive regression trees(BART) is a nonparametric regression model which has gained wide -spread popularity in recent years due to its flexibility and high accuracy of estimation .In spatio-temporal related model,the spatio or temporal variables are playing an important role in the model.The BART models select variables with uniform prior distribution that means treat every variable equally.Applying the BART model directly without properly using these prior information is not appropriate.This paper is aimed at a modification to the BART by fixing part of the tree's structure.We call this model partially fixed BART.By this new model we can improve efficiency of estimation.When we don't know the prior information,we can still use the new model to get more accurate estimation and more structure information for future use.Data experiments and real data examples show the improvement comparing to the original Bart model.


翻译:Bayes 添加回归树(BART)是一个非参数回归模型,近年来由于其灵活性和高精确度估算,这一模型广受欢迎。 在spatio-时空相关模型中,spatio 或时间变量在模型中发挥着重要的作用。 BART模型选择了具有统一先前分布的变量,这意味着对每个变量一视同仁。 直接应用 BART 模型而不正确使用这些先前的信息是不合适的。 本文旨在通过确定树的结构部分来修改 BART 。 我们称这个模型为部分固定的 BART.BART。 我们用这个新模型可以提高估算效率。 当我们不知道先前的信息时, 我们还可以使用新模型来获取更准确的估算和更多的结构信息,供未来使用。 Data 实验和真实数据实例显示与原始的Bart模型相比的改进。

0
下载
关闭预览

相关内容

专知会员服务
50+阅读 · 2020年12月14日
【干货书】机器学习速查手册,135页pdf
专知会员服务
125+阅读 · 2020年11月20日
[综述]深度学习下的场景文本检测与识别
专知会员服务
77+阅读 · 2019年10月10日
机器学习入门的经验与建议
专知会员服务
92+阅读 · 2019年10月10日
【哈佛大学商学院课程Fall 2019】机器学习可解释性
专知会员服务
103+阅读 · 2019年10月9日
【论文笔记】通俗理解少样本文本分类 (Few-Shot Text Classification) (1)
深度学习自然语言处理
7+阅读 · 2020年4月8日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
28+阅读 · 2019年5月18日
Call for Participation: Shared Tasks in NLPCC 2019
中国计算机学会
5+阅读 · 2019年3月22日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
17+阅读 · 2018年12月24日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
【论文】变分推断(Variational inference)的总结
机器学习研究会
39+阅读 · 2017年11月16日
【学习】Hierarchical Softmax
机器学习研究会
4+阅读 · 2017年8月6日
Arxiv
0+阅读 · 2021年10月8日
Rule-based Bayesian regression
Arxiv
0+阅读 · 2021年10月8日
VIP会员
相关资讯
【论文笔记】通俗理解少样本文本分类 (Few-Shot Text Classification) (1)
深度学习自然语言处理
7+阅读 · 2020年4月8日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
28+阅读 · 2019年5月18日
Call for Participation: Shared Tasks in NLPCC 2019
中国计算机学会
5+阅读 · 2019年3月22日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
17+阅读 · 2018年12月24日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
【论文】变分推断(Variational inference)的总结
机器学习研究会
39+阅读 · 2017年11月16日
【学习】Hierarchical Softmax
机器学习研究会
4+阅读 · 2017年8月6日
Top
微信扫码咨询专知VIP会员