Kaggle CTO力荐:从Kaggle历史数据看机器学习竞赛趋势

2018 年 8 月 10 日 论智
来源:Kaggle
编译:Bot

编者按:Kaggle是全球最大数据建模和数据分析竞赛平台,也是检验个人水平的最佳舞台。现如今,随着社会对机器学习人才的需求提高,在Kaggle上刷到过前5%、10%也成了应聘的一个硬指标。考虑到Kaggle的权威性和受欢迎度,这么多年来,这个平台的数据应该能体现整个数据科学领域的发展轨迹。

多年来,数据科学领域的许多趋势已经发生了改变。Kaggle,作为全球最大、最受欢迎的数据科学社区,记录着这些变化的演进状态。本文将使用Kaggle Meta Data逐一分析,看看这些年来,我们的数据科学究竟发生了什么变化?

1. 线性回归 vs logistic回归

线性回归与逻辑回归是机器学习中比较基础又很常用的内容,其中前者可以进行连续值预测,后者能被用于解决分类问题。所以我们先从它们开始,根据Kaggle论坛的帖子数对比这两种算法的热度趋势。

蓝:线性回归;橙:logistic回归

如上图所示,橙线大多数时间都在蓝线之上,用户这些年来似乎一直都更喜欢聊logistic回归。而宏观来看,两种算法的变化趋势几乎吻合,峰值重合度较高,虽然起伏明显,但这8年来,它们总体是呈上升趋势的。

那么logistic回归受欢迎的原因是什么?一个迹象表明,Kaggle上的分类问题远多于回归问题,其中一个代表是这些年来最受欢迎的泰坦尼克号生存预测竞赛。这是Kaggle上历史最“悠久”的竞赛之一,用户的讨论自然也很激烈。而最受欢迎的回归问题则是房价预测,但人们通常会在完成泰坦尼克号之后再考虑这个问题。

在2017年10月和2018年3月,Kaggle论坛上关于logistic回归的讨论量大幅增加。对此,一个可能的解释是平台上出现的新竞赛——恶意评论分类。当时一些团队分享了不少和分类模型相关的高质量经验,其中就包括logistic回归。

2. XgBoost的霸主地位

蓝:决策树;橙:随机森林;绿:XgBoost;红:LightGBM;紫:CatBoost

在2014年以前,线性模型、决策树和随机森林的讨论量虽然不多,但它们占据绝对话语权。2014年,时为华盛顿大学博士的陈天奇开源XgBoost算法,受到大众追捧,之后它也迅速成了Kaggle竞赛中的常客。时至今日,XgBoost在竞赛中的使用率还是很高,性能也很好,不少夺冠方案中都有它的身影。

但是,根据曲线我们可以注意到,自从2016年LightGBM被提出后,XgBoost的讨论量出现了一定程度的下降,而LightGBM却一路水涨船高。可以预见,在学界开源更好的模型前,这个算法将在未来几年占据主导地位。现在LightGBM也已经出现在不少竞赛中,比如Porto Seguro的安全驾驶预测,它的优点是比XgBoost实现速度更快、更简单。

除了这些算法,图中“最年轻”的CatBoost也有走红的趋势。

3. 神经网络和深度学习的趋势

蓝:神经网络;橙:深度学习

几十年来,神经网络在学界和工业界一直不温不火,但如上图所示,随着大型数据集的出现和计算机算力的大幅提升,近几年这种趋势已经发生了变化。

从2014年起,我们相继迎来了theano、tensorflow、keras,与此同时,一个名为深度学习的时代也渐渐出现在世人视野里。在Kaggle上,用户发表的有关深度学习的帖子数不断上升,并最终超过神经网络。此外,诸如亚马逊、谷歌等的云服务提供商也正拥抱新技术,以更加积极的姿态展示在云上训练深层神经网络的能力。

深度学习模型是Kaggle竞赛中的新星,目前它已经在图像分类、文本分类竞赛中崭露头角,比如Data Science Bowl、Quora重复问题分类等。而伴随RNN、CNN的不断改进,深度学习的流行趋势似乎已经势不可挡。此外,一些尝试已经证实,迁移学习和预训练模型在竞赛中能够表现出色。

这种技术让人们看到了可能性。为了让用户从实践中学到更多知识,Kaggle可以推出更多和图像分类建模相关的比赛,但以当前的情况看,现在限制用户大规模使用深度学习的是它的算力要求。但这种问题是可以被解决的。Kaggle已经添加GPU支持,未来,相信尝试深度学习的用户会越来越多。

4. Kaggle上流行的ML工具

蓝:Scikit;橙:Tensorflow;绿:Keras;红:Pytorch

在2015年以前,如果一个数据科学家想构建机器学习模型,Scikit Learn是他唯一可以选择的库;2015年后,这种局面发生了改变,作为ML生态的一部分,谷歌开源软件库Tensorflow,并让它迅速在全球范围内普及。

但是Tensorflow也存在缺点,就是它比较难学,因此虽然用户非常多,但在Kaggle这个竞赛平台上,大多数用户还是倾向于选择更灵活、更简单的Keras。毕竟究其本质,Keras可以被看作是Tensorflow封装后的一个API。

5. XgBoost vs Keras

蓝:XgBoost;橙:Keras

既然Keras是深度学习框架,我们可以把它看做深层神经网络的间接代表。

XgBoost与深度学习孰优孰劣?这是去年Quora上吵翻天的一个问题。而从Kaggle的数据看,前者一直处于领先地位,而后者也在奋力追赶。相比复杂、层多的神经网络,XgBoost的优点是更快,对硬件要求更低,因此也更受普通用户欢迎。

但这个结果并不代表优劣,拿陈天奇博士自己的话说,就是:

不同的机器学习模型适用于不同类型的任务。深层神经网络通过对时空位置建模,能够很好地捕获图像、语音、文本等高维数据。而基于树模型的XGBoost则能很好地处理表格数据,同时还拥有一些深层神经网络所没有的特性(如:模型的可解释性、输入数据的不变性、更易于调参等)。

6. 可视化工具比拼

蓝:Matplotlib;橙:Seaborn;绿:Plotly

从2017年起,Plotly就像开了挂一样一路走红,现在已经成为Kaggle用户最常用的可视化工具。排名第二的是Seaborn,它实际上是在Matplotlib的基础上进行了更高级的API封装,生成的图更好看,而作为补充,Matplotlib的图更有特色。

7. 数据科学过程步骤比拼

蓝:Exploration;橙:特征工程;绿:调参;红:集成

在上图中,最受Kaggle用户关注的是模型的集成。参加竞赛时,虽然最后提交的是一个模型,但参赛者会先训练若干个弱模型,最后再用集成方法进行整合堆叠。这种做法在回归和分类任务中非常常见。

至于同样倍受瞩目Exploration,近期,无数数据科学家已经一遍遍强调了探索性数据分析(EDA)的重要性,而他们的呼吁起到了效果。如果我们没法确保数据的可靠性,最后的模型很可能会出问题。

但对于这个结果,有些人可能会感到意外。因为如果想在竞赛中取得好名次,调参和模型微调肯定必不可少,但这两个时间、精力消耗的“大户”的排名却不高。所以我们应该牢记,虽然集成是建模过程的最后一步,但我们应该在特征工程和模型调整上投入相当长的时间。

最为人津津乐道的子平台

蓝:数据集;橙:Kernel;绿:竞赛;红:Learn

既然Kaggle是个数据科学竞赛平台,用户们讨论的内容自然是参加什么竞赛,用了什么数据集,并分享看到的实用代码。而根据上图的曲线,自从2016年推出后,代码Kernel的受欢迎度一路飙升,毕竟用户们可以在上面看到其他参赛者自愿公开的模型代码,这对于学习和交流来说是不可多得的优质资源。

此外,Kaggle还推出了课程子平台Kaggle Learn,虽然目前在讨论度上不及数据集、Kernel和竞赛,但这些课程主要面向初学者。未来,随着课程内容的丰富和新手人数的增加,这个板块的流行指日可待。

原文地址:www.kaggle.com/shivamb/data-science-trends-on-kaggle

登录查看更多
1

相关内容

【资源】100+本免费数据科学书
专知会员服务
107+阅读 · 2020年3月17日
Sklearn 与 TensorFlow 机器学习实用指南,385页pdf
专知会员服务
129+阅读 · 2020年3月15日
专知会员服务
115+阅读 · 2019年12月24日
谷歌机器学习速成课程中文版pdf
专知会员服务
145+阅读 · 2019年12月4日
【机器学习课程】Google机器学习速成课程
专知会员服务
164+阅读 · 2019年12月2日
生成式对抗网络GAN异常检测
专知会员服务
115+阅读 · 2019年10月13日
线性模型已退场,XGBoost时代早已来
全球人工智能
9+阅读 · 2019年4月16日
进入 kaggle 竞赛前 2% 的秘诀
AI研习社
4+阅读 · 2018年11月13日
机器学习预测世界杯:巴西夺冠
新智元
5+阅读 · 2018年6月11日
机器学习新手必看10大算法
深度学习世界
4+阅读 · 2018年2月1日
Kaggle入门手册
Datartisan数据工匠
14+阅读 · 2017年11月9日
已删除
将门创投
5+阅读 · 2017年8月15日
Python机器学习Kaggle案例实战
炼数成金订阅号
12+阅读 · 2017年8月10日
Federated Learning for Mobile Keyboard Prediction
Arxiv
5+阅读 · 2018年11月8日
Arxiv
6+阅读 · 2018年2月28日
VIP会员
相关VIP内容
相关资讯
线性模型已退场,XGBoost时代早已来
全球人工智能
9+阅读 · 2019年4月16日
进入 kaggle 竞赛前 2% 的秘诀
AI研习社
4+阅读 · 2018年11月13日
机器学习预测世界杯:巴西夺冠
新智元
5+阅读 · 2018年6月11日
机器学习新手必看10大算法
深度学习世界
4+阅读 · 2018年2月1日
Kaggle入门手册
Datartisan数据工匠
14+阅读 · 2017年11月9日
已删除
将门创投
5+阅读 · 2017年8月15日
Python机器学习Kaggle案例实战
炼数成金订阅号
12+阅读 · 2017年8月10日
Top
微信扫码咨询专知VIP会员