How can we update data for a machine learning model after it has already trained on that data? In this paper, we introduce DART, a variant of random forests that supports adding and removing training data with minimal retraining. Data updates in DART are exact, meaning that adding or removing examples from a DART model yields exactly the same model as retraining from scratch on updated data. DART uses two techniques to make updates efficient. The first is to cache data statistics at each node and training data at each leaf, so that only the necessary subtrees are retrained. The second is to choose the split variable randomly at the upper levels of each tree, so that the choice is completely independent of the data and never needs to change. At the lower levels, split variables are chosen to greedily maximize a split criterion such as Gini index or mutual information. By adjusting the number of random-split levels, DART can trade off between more accurate predictions and more efficient updates. In experiments on ten real-world datasets and one synthetic dataset, we find that DART is orders of magnitude faster than retraining from scratch while sacrificing very little in terms of predictive performance.


翻译:在对数据进行了培训之后,我们如何更新机器学习模型的数据?在本文中,我们引入了DART,这是一个随机森林的变种,它支持以最低限度的再培训来增减培训数据。DART的数据更新是准确的,这意味着从DART模型中添加或删除示例与从零开始的再培训完全相同。DART使用两种技术来提高更新效率。首先,在每一个节点上存储数据统计数据,并在每个叶子上方培训数据,以便只对必要的亚树进行再培训。第二,在每棵树上层随机选择可变的分法,以便选择完全独立于数据,而无需改变。在较低层次上,选择分裂变量是为了贪婪地尽可能扩大一个分割的标准,如基尼指数或相互信息。通过调整随机流水平的数量,DART可以在更准确的预测和更有效的更新之间交换。在十个真实世界数据集和一个合成数据集的实验中,我们发现DART比重新培训要快,而没有多少牺牲预测性能。

0
下载
关闭预览

相关内容

Google 发布的面向结构化 web 应用的开语言。 dartlang.org
Linux导论,Introduction to Linux,96页ppt
专知会员服务
76+阅读 · 2020年7月26日
【实用书】流数据处理,Streaming Data,219页pdf
专知会员服务
76+阅读 · 2020年4月24日
《可解释的机器学习-interpretable-ml》238页pdf
专知会员服务
197+阅读 · 2020年2月24日
【NeurIPS 2019的主要趋势】Key trends from NeurIPS 2019
专知会员服务
11+阅读 · 2019年12月19日
2019年机器学习框架回顾
专知会员服务
35+阅读 · 2019年10月11日
机器学习入门的经验与建议
专知会员服务
91+阅读 · 2019年10月10日
不需要预训练模型的检测算法—DSOD
极市平台
9+阅读 · 2019年10月10日
Hierarchically Structured Meta-learning
CreateAMind
23+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
26+阅读 · 2019年5月18日
如何在2019年变成NLP专家
专知
7+阅读 · 2019年5月18日
无监督元学习表示学习
CreateAMind
26+阅读 · 2019年1月4日
Unsupervised Learning via Meta-Learning
CreateAMind
41+阅读 · 2019年1月3日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
16+阅读 · 2018年12月24日
Python机器学习教程资料/代码
机器学习研究会
8+阅读 · 2018年2月22日
【推荐】YOLO实时目标检测(6fps)
机器学习研究会
20+阅读 · 2017年11月5日
【推荐】决策树/随机森林深入解析
机器学习研究会
5+阅读 · 2017年9月21日
Semi-Supervised Neural Architecture Search
Arxiv
0+阅读 · 2020年11月2日
Arxiv
0+阅读 · 2020年10月27日
Arxiv
0+阅读 · 2020年10月22日
Arxiv
0+阅读 · 2020年10月18日
Arxiv
0+阅读 · 2020年10月17日
Arxiv
3+阅读 · 2018年8月27日
VIP会员
相关资讯
不需要预训练模型的检测算法—DSOD
极市平台
9+阅读 · 2019年10月10日
Hierarchically Structured Meta-learning
CreateAMind
23+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
26+阅读 · 2019年5月18日
如何在2019年变成NLP专家
专知
7+阅读 · 2019年5月18日
无监督元学习表示学习
CreateAMind
26+阅读 · 2019年1月4日
Unsupervised Learning via Meta-Learning
CreateAMind
41+阅读 · 2019年1月3日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
16+阅读 · 2018年12月24日
Python机器学习教程资料/代码
机器学习研究会
8+阅读 · 2018年2月22日
【推荐】YOLO实时目标检测(6fps)
机器学习研究会
20+阅读 · 2017年11月5日
【推荐】决策树/随机森林深入解析
机器学习研究会
5+阅读 · 2017年9月21日
相关论文
Semi-Supervised Neural Architecture Search
Arxiv
0+阅读 · 2020年11月2日
Arxiv
0+阅读 · 2020年10月27日
Arxiv
0+阅读 · 2020年10月22日
Arxiv
0+阅读 · 2020年10月18日
Arxiv
0+阅读 · 2020年10月17日
Arxiv
3+阅读 · 2018年8月27日
Top
微信扫码咨询专知VIP会员