流行于机器学习竞赛的Boosting,一文讲透足够了

2020 年 2 月 20 日 CSDN

作者 | AISHWARYA SINGH

译者 | 武明利,责编 | 夕颜

出品 | AI科技大本营(ID:rgznai100)


你能说出至少两种机器学习中的 Boosting 吗?


Boosting 已经存在了很多年,然而直到最近它们才成为机器学习社区的主流。那么,为什么这些 Boosting 如此流行呢?


Boosting 的流行的主要原因之一是机器学习竞赛。Boosting 为机器学习模型赋予超能力来提高其预测准确性。快速浏览一下Kaggle竞赛和DataHack黑客马拉松就知道了—— Boosting 非常受欢迎!


简而言之,Boosting 通常要比逻辑回归和决策树之类的简单模型优越。实际上,DataHack平台上的大多数顶级产品都是使用一种 Boosting 或多种 Boosting 组合实现的。



在本文中,作者将介绍四种流行的 Boosting ,你可以在下一个机器学习黑客马拉松或项目中使用它们。



Boosting快速入门(什么是Boosting?


想象一下这种场景:


你已经建立了线性回归模型,该模型可以使验证数据集的准确性达到77%。接下来,你决定通过在同一数据集上建立k近邻算法(KNN)模型和决策树模型来扩展你的数据集。这些模型在验证集上的准确率分别为62%和89%。


显然,这三个模型的工作方式完全不同。例如,线性回归模型尝试捕获数据中的线性关系,而决策树模型尝试捕获数据中的非线性。

使用这些所有模型的组合而不是使用这些模型中的任何一个做出最终的预测怎么样?

 

我正在考虑这些模型的平均预测。这样,我们将能从数据中捕获更多信息。


这主要是集成学习背后的想法。 那么 Boosting 出现在哪里呢?


Boosting 是使用集成学习概念的技术之一。 Boosting 结合了多个简单模型(也称为弱学习者或基本估计量)来生成最终输出。


我们将在本文中介绍一些重要的 Boosting 。



机器学习中的4种 Boosting 



  • 梯度提升机(GBM)
  • 极端梯度提升机(XGBM)
  • 轻量梯度提升机(LightGBM)
  • 分类提升(CatBoost)

1、梯度提升机(GBM)

梯度提升机(GBM)结合了来自多个决策树的预测来生成最终预测。注意,梯度提升机中的所有弱学习者都是决策树。

但是,如果我们使用相同的算法,那么使用一百个决策树比使用单个决策树好吗?不同的决策树如何从数据中捕获不同的信号/信息呢?

这就是窍门––每个决策树中的节点采用不同的功能子集来选择最佳拆分。这意味着各个树并不完全相同,因此它们能够从数据中捕获不同的信号。

另外,每棵新树都考虑到先前树所犯的错误。因此,每个连续的决策树都是基于先前树的错误。这就是按顺序构建梯度 Boosting 中树的方式。



2、极端梯度提升机(XGBM)

极端梯度提升机(XGBoost)是另一种流行的 Boosting 。实际上,XGBoost只是GBM算法的改进版!XGBoost的工作过程与GBM相同。XGBoost中的树是按顺序构建的尝试用于更正先前树的错误。
 
但是, XGBoost某些功能稍微优于GBM:

1)最重要的一点是XGBM实现了并行预处理(在节点级别),这使其比GBM更快。

2)XGBoost还包括各种正则化技术,可减少过度拟合并改善整体表现。你可以通过设置XGBoost算法的超参数来选择正则化技术。

此外,如果使用的是XGBM算法,则不必担心会在数据集中插入缺失值。XGBM模型可以自行处理缺失值。在训练过程中,模型将学习缺失值是在右节点还是左节点中。

3、轻量梯度提升机(LightGBM)

由于其速度和效率,LightGBM  Boosting 如今变得越来越流行。LightGBM能够轻松处理大量数据。但是请注意,该算法在少数数据点上的性能不佳。

让我们花点时间来了解为什么会出现这种情况。

LightGBM中的树具有叶向生长的,而不是水平生长的。在第一次分割之后,下一次分割仅在损失较大的叶节点上进行。

考虑下图所示的示例:



第一次分割后,左侧节点的损耗较高,因此被选择用于下一个分割。现在,我们有三个叶节点,而中间叶节点的损耗最高。LightGBM算法的按叶分割使它能够处理大型数据集。

为了加快训练过程,LightGBM使用基于直方图的方法来选择最佳分割。对于任何连续变量而不是使用各个值,这些变量将被分成仓或桶。这样训练过程更快,并降低了内存开销。

4、分类提升算法(CatBoost)

顾名思义,CatBoost是一种处理数据中的分类变量的 Boosting 。大多数机器学习算法无法处理数据中的字符串或类别。因此,将分类变量转换为数值是一个重要的预处理步骤。

CatBoost可以在内部处理数据中的分类变量。使用有关特征组合的各种统计信息,将这些变量转换为数值变量。

如果你想了解如何将这些类别转换为数字,请阅读以下文章:
https://catboost.ai/docs/concepts/algorithm-main-stages_cat-to-numberic.html#algorithm-main-stages_cat-to-numberic)

CatBoost被广泛使用的另一个原因是,它可以很好地处理默认的超参数集。因此,作为用户,我们不必花费大量时间来调整超参数。

结论

在本文中,我们介绍了集成学习的基础知识,并研究了4种 Boosting 。有兴趣学习其他集成学习方法吗?你应该查看以下文章:

综合学习综合指南(附Python代码):
https://www.analyticsvidhya.com/blog/2018/06/comprehensive-guide-for-ensemble-models/?utm_source=blog&utm_medium=4-boosting-algorithms-machine-learning

你还使用过其他哪些 Boosting ?你使用这些 Boosting 取得了成功吗?欢迎在下面的评论中与我们分享你的想法和经验。
 
原文:
https://www.analyticsvidhya.com/blog/2020/02/4-boosting-algorithms-machine-learning/
【End】

技术战“疫”,贾扬清、李飞飞给程序员直播讲AI技术

2月18日、2月20日,阿里云CIO学院攻“疫”技术课程正式开启。您将获得与达摩院数据库首席科学家 、阿里巴巴集团副总裁、ACM 杰出科学家李飞飞,Caffe之父、ONNX创始人、阿里巴巴集团副总裁贾扬清,阿里巴巴集团副总裁、阿里 CIO 学院院长胡臣杰等顶级技术专家直播互动的机会。

推荐阅读 
iPhone 9或于4月3日发布;复制粘贴之父Larry Tesler去世;Android 11开发者预览版来了!| 极客头条
10 万阿里人都爱用的网红工具,语雀如何“用保护钱包的技术在保护文档安全”?
超赞的PyTorch资源大列表,GitHub标星9k+,中文版也上线了
“删库跑路”这件事情真的发生了 ,还是技术总监干的!
别再用那些已经淘汰的技术了!2020 年 9 大顶级 Java 框架出炉!!
31岁年薪50万:“复工第一天,谢谢裁掉我!” 有底气的人生无需解释!
你点的每一个在看,我认真当成了喜欢
猛戳“ 阅读原文 ”,立即加入!
登录查看更多
0

相关内容

【实用书】Python机器学习Scikit-Learn应用指南,247页pdf
专知会员服务
264+阅读 · 2020年6月10日
【干货书】机器学习Python实战教程,366页pdf
专知会员服务
338+阅读 · 2020年3月17日
Sklearn 与 TensorFlow 机器学习实用指南,385页pdf
专知会员服务
129+阅读 · 2020年3月15日
【经典书】精通机器学习特征工程,中文版,178页pdf
专知会员服务
354+阅读 · 2020年2月15日
【新书】Pro 机器学习算法Python实现,379页pdf
专知会员服务
198+阅读 · 2020年2月11日
常用的模型集成方法介绍:bagging、boosting 、stacking
LightGBM 大战 XGBoost,谁将夺得桂冠?
AI研习社
7+阅读 · 2018年4月17日
RF、GBDT、XGBoost面试级整理
数据挖掘入门与实战
17+阅读 · 2018年3月21日
机器学习(23)之GBDT详解
机器学习算法与Python学习
12+阅读 · 2017年10月25日
深度 | 从Boosting到Stacking,概览集成学习的方法与性能
深度学习世界
3+阅读 · 2017年8月28日
LibRec 每周算法:Kaggle竞赛利器之xgboost
LibRec智能推荐
15+阅读 · 2017年8月24日
机器学习算法比较
我爱机器学习
4+阅读 · 2016年12月11日
Adaptive Neural Trees
Arxiv
4+阅读 · 2018年12月10日
Arxiv
6+阅读 · 2018年3月28日
VIP会员
相关VIP内容
相关资讯
常用的模型集成方法介绍:bagging、boosting 、stacking
LightGBM 大战 XGBoost,谁将夺得桂冠?
AI研习社
7+阅读 · 2018年4月17日
RF、GBDT、XGBoost面试级整理
数据挖掘入门与实战
17+阅读 · 2018年3月21日
机器学习(23)之GBDT详解
机器学习算法与Python学习
12+阅读 · 2017年10月25日
深度 | 从Boosting到Stacking,概览集成学习的方法与性能
深度学习世界
3+阅读 · 2017年8月28日
LibRec 每周算法:Kaggle竞赛利器之xgboost
LibRec智能推荐
15+阅读 · 2017年8月24日
机器学习算法比较
我爱机器学习
4+阅读 · 2016年12月11日
Top
微信扫码咨询专知VIP会员