【AutoML】AutoML 是否被过度炒作?

2019 年 11 月 9 日 产业智能官

原标题 | AutoML is Overhyped

作 者 | Denis Vorotyntsev

翻 译 | 呀啦呼(Tufts University | CS)


图源:汤姆和杰瑞,第70集 —— 按键猫(1952)(译者注:直到暑假去了上海Disney,我才知道它和兔八哥、啄木鸟伍迪都和迪士尼木有关系,气气 
我在多个机器学习竞赛中为了融合主要的模型使用了AutoML,并且我参与了两个AutoML的竞赛。我认为AutoML作为使建模过程自动化的一种想法非常出色,但是该领域被过度炒作(overhyped)。一些关键概念,例如特征工程(features engineering)或用于参数优化的元学习(meta-learning),将释放其潜力,但就目前而言,将封装的AutoML作为工具只是浪费金钱。
以下所有文本均与表格数据有关。

 1  AutoML是嘛玩意?

  Data Science projects(数据科学项目)

任何数据科学项目都包含几个基本步骤:从业务角度提出问题(选择成功的任务和度量标准),收集数据(收集,清理,探索),建立模型和评估其性能,在生产环境中部署模型并观察模型在生产中的表现。

跨行业的数据挖掘标准流程
过程的每个部分对于项目的成功都至关重要。但是,从机器学习的最擅长角度来看,建模部分至关重要,因为完善的ML模型可能会为公司带来很多价值。
在建模阶段,数据科学家正在解决优化任务:使用给定的数据集,目标-最大化所选指标。这个过程很复杂,它需要不同类型的技能:
1. 特征工程有时被视为艺术,而非科学(译者:我猜作者表达的是很多时候我们需要直觉或者经验总结,但是我不同意归为艺术);
2. 参数优化需要对算法和核心ML概念有深入的了解;
3. 需要软件工程技能(码畜们存在的意义)来让输出的代码易于理解、部署。
这就是为啥我们需要AutoML。

ML建模和软件工程一样,像是艺术和科学的结合体。

  AutoML

AutoML的输入是数据和任务(classification, regression, recommendations等),输出-生产就绪模型,该模型能够预测隐藏的数据。数据驱动管道中的每个决定都是一个参数(译者:闹不懂作者的意思,有点玄学)。AutoML的基本想法是找到这样的参数,这些参数可以在合理的时间内给出良好的分数。
  • AutoML选择了一种预处理数据的策略:如何处理不平衡的数据;如何处理不平衡的数据;如何填充缺失值;outlier的删除,替换或保留;如何编码类别和多类别列;如何避免目标泄漏;如何防止内存错误;等等。
  • AutoML生成很多新的特征并且选择当中有意义的;
  • AutoML自动选择适合的模型(Linear models, K-Nearest Neighbors, Gradient Boosting, Neural Nets, 等等);
  • AutoML为选择的模型进行参数优化(比如tree-based的模型有多少子树数量和子采样数, 神经网络的learning rate和epochs数量;
  • AutoML建立了一个模型集成(译者:大杂烩,嘛都有)来尽可能的让模型分数更高。


 2  AutoML 的动机

  AutoML将填补数据科学市场中供需之间的缺口

如今,越来越多的公司要么开始收集数据,要么想变现已收集数据的潜力:他们希望从中获得价值(译者:作者应该表达的是商业价值)。可是没有太多具有适当背景的数据科学家可以满足需求,因此巨大的缺口出现了。AutoML有可能会填补上。
但是这样的封装解决方案能给公司带来任何价值吗?我认为答案是“否”。
这些公司需要一个过程,但是AutoML只是一个工具。先进的工具无法弥补战略上的不足。在开始使用AutoML之前,请考虑先找咨询公司来个项目(译者:瓜娃子作者是咨询公司的托吧),这可能首先帮助您制定数据科学策略。大多数AutoML解决方案提供商也提供咨询服务并不是巧合。 
看起来不像是一个完美计划,对吧(来自《南方公园》S2 E17)

  AutoML将会大幅节省数据科学团队的时间

根据2018 Kaggle ML and Data Science Survey, 一个数据可选的项目15-26%的时间花费在建模或者模型选择(Link:https://www.kaggle.com/headsortails/what-we-do-in-the-kernels-a-kaggle-survey-story)。
无论是考虑“员工工时”还是消耗的计算时间,这都是一项艰巨的任务。如果目标或数据发生更改(例如添加新特征),之前的过程就会被重复。AutoML可以帮助公司内的数据科学家节省时间,并将其更多地花费在更重要的事情上(例如在椅子上击剑)。

而我们在开始使用AutoML之前仅仅需要几行代码。
但是,如果数据科学团队的建模部分不是最关键的任务,则你的公司流程中显然存在问题。通常,即使模型性能的小幅提高也可能为公司赚取大量金钱,在这种情况下,建模时间是值得开销的时间:
Oversimplified rules:if (Gain from model > Costs of DS team time) → Time savings are not needed.if (Gain from model <= Costs of DS team time) → Are you solving the right problem? 🤔
让你的数据科学团队给日常任务编写脚本而不是使用封装的解决方案是一个好主意。我为日常任务的自动化编写了一些脚本:自动特征生成,特征选择,模型训练和参数tuning,而这些我现在每天都在使用。

  AutoML比普通的数据科学家更厉害

不幸的是,除了"An Open Source AutoML Benchmark”(https://arxiv.org/abs/1907.00909), 我们没有任何有用的“AutoML vs 人类”的benchmarks。
该论文的作者在2019年7月1日发布了几个AutoML库与优化后的Random Forest性能的比较结果。 


我挺好奇的,然后我自己做了一个benchmarks. 我在三个数据集( credit, KDD Upselling, 和 mortgages)上比较了我的模型和AutoML的性能。我把数据集分为训练集(按目标分层随机分配了60%的数据)和测试集(剩余40%)。
我的基准解决方案相对简单。我没有深入研究数据,也没有创建任何高级特征:
  1. 5-StratifiedKFold;
  2. 用于分类列的Catboost编码器,如果您对CatBoost编码器不熟悉,请查看我之前的文章:Benchmarking Categorical Encoders(https://towardsdatascience.com/benchmarking-categorical-encoders-9c322bd77ee8);
  3. 数字列对的数学运算(+-* /)。新特征数量的上限:500;
  4. 模型:默认参数的LightGBM;
  5. 混合(OOF ranked predictions)
我用了两个AutoML的库:H2O 和 TPOT。我分阶段、次数训练了这俩宝贝:从15分钟到6小时。使用以下指标,我得到了令人惊讶的结果:
Score = (ROC AUC / ROC AUC of my baseline) * 100%

首先,在几乎所有情况下,我的baseline都超过了AutoML。我有点难过,因为我计划在办公室里放松一下,而AutoML会做所有劳累的工作,但是无所谓咯 😒~~
其次,AutoML的得分并没有随着时间的推移而提高,这意味着我们等待多长时间都没有关系:它在15分钟内和6小时内的得分一样低。
AutoML与高分无关。
编辑注: 作者 2019.10.16 更新以下内容:我想补充一点,我的基准测试并不是“人类与AutoML”竞赛的终点。显然,我们需要就指标进行更多讨论(应该是分数?还是分数+时间?以及元学习期间的CO2排放量等),还需要针对不同数据集和任务的更多基准。

 3  总结

  1. 如果你的公司想第一次使用其数据,整个顾问先咨询一下。
  2. 你应该让你的工作尽量地自动化。。。
  3. 。。。由于封装的解决方案得分很低,看起来并不像是正确的选择。

 PS  引擎并不是一辆完整的车。

在本文中,我谈论的是工具,但是请记住,建模部分只是整个数据科学项目管道的一部分,这一点很重要。我喜欢将项目比作汽车。这样,建模(机器学习模型)的输出就是一个引擎。
毫无疑问,发动机是必不可少的,但它并不是整车。你可能需要花费大量时间来设计令人难以置信,周到和复杂的特征,选择神经网络的体系结构或调整Random Forest的参数,从而创建强大的引擎。但是,如果你没有注意汽车的其他部分,则所有工作可能都没有用。
该模型本身可以显示很高的分数,但是由于你解决了错误的问题(业务理解)或数据有偏见,并且必须对其进行重新训练(数据探索)或由于模型过于复杂,因此使用该模型不会被部署。
最后,你可能会发现自己很傻:在经过数天或数周的艰苦建模工作后,你驾驶的是一辆装有跑车发动机的慢速自行车(如下图)。
工具必不可少;策略才是至关重要。

via https://towardsdatascience.com/automl-is-overhyped-1b5511ded65f


先进制造业+工业互联网




产业智能官  AI-CPS


加入知识星球“产业智能研究院”:先进制造业OT(自动化+机器人+工艺+精益)和工业互联网IT(云计算+大数据+物联网+区块链+人工智能)产业智能化技术深度融合,在场景中构建状态感知-实时分析-自主决策-精准执行-学习提升的产业智能化平台;实现产业转型升级、DT驱动业务、价值创新创造的产业互联生态链。


产业智能化平台作为第四次工业革命的核心驱动力,将进一步释放历次科技革命和产业变革积蓄的巨大能量,并创造新的强大引擎; 重构设计、生产、物流、服务等经济活动各环节,形成从宏观到微观各领域的智能化新需求,催生 新技术、新产品、新产业、新业态和新模式; 引发经济结构重大变革,深刻改变人类生产生活方式和思维模式,实现社会生产力的整体跃升。

产业智能化技术分支用来的今天,制造业者必须了解如何将“智能技术”全面渗入整个公司、产品、业务等商业场景中, 利用工业互联网形成数字化、网络化和智能化力量,实现行业的重新布局、企业的重新构建和焕然新生。

版权声明产业智能官(ID:AI-CPS推荐的文章,除非确实无法确认,我们都会注明作者和来源,涉权烦请联系协商解决,联系、投稿邮箱:erp_vip@hotmail.com。




登录查看更多
4

相关内容

专知会员服务
123+阅读 · 2020年3月26日
《人工智能2020:落地挑战与应对 》56页pdf
专知会员服务
195+阅读 · 2020年3月8日
《可解释的机器学习-interpretable-ml》238页pdf
专知会员服务
202+阅读 · 2020年2月24日
【Science最新论文】XAI—可解释人工智能简述,机遇与挑战
专知会员服务
163+阅读 · 2019年12月21日
自动机器学习:最新进展综述
专知会员服务
118+阅读 · 2019年10月13日
AutoML:机器学习的下一波浪潮(附代码&链接)
THU数据派
4+阅读 · 2019年4月29日
AutoML:机器学习的下一波浪潮
AI前线
9+阅读 · 2019年4月27日
AutoML 坏掉了
云头条
4+阅读 · 2019年2月20日
Auto-Keras与AutoML:入门指南
云栖社区
16+阅读 · 2019年2月9日
自动机器学习(AutoML)最新综述
PaperWeekly
34+阅读 · 2018年11月7日
关于机器学习你要了解的 5 件事
机器学习算法与Python学习
7+阅读 · 2018年9月7日
AutoML 和神经架构搜索初探
雷锋网
5+阅读 · 2018年8月1日
【学界】机器学习模型的“可解释性”到底有多重要?
GAN生成式对抗网络
12+阅读 · 2018年3月3日
AutoML—降低机器学习门槛的利器
深度学习
8+阅读 · 2018年1月29日
AutoML: A Survey of the State-of-the-Art
Arxiv
69+阅读 · 2019年8月14日
The Evolved Transformer
Arxiv
5+阅读 · 2019年1月30日
Adversarial Transfer Learning
Arxiv
12+阅读 · 2018年12月6日
Arxiv
5+阅读 · 2018年9月11日
Neural Architecture Optimization
Arxiv
8+阅读 · 2018年9月5日
Arxiv
12+阅读 · 2018年9月5日
Arxiv
7+阅读 · 2018年1月24日
VIP会员
相关资讯
AutoML:机器学习的下一波浪潮(附代码&链接)
THU数据派
4+阅读 · 2019年4月29日
AutoML:机器学习的下一波浪潮
AI前线
9+阅读 · 2019年4月27日
AutoML 坏掉了
云头条
4+阅读 · 2019年2月20日
Auto-Keras与AutoML:入门指南
云栖社区
16+阅读 · 2019年2月9日
自动机器学习(AutoML)最新综述
PaperWeekly
34+阅读 · 2018年11月7日
关于机器学习你要了解的 5 件事
机器学习算法与Python学习
7+阅读 · 2018年9月7日
AutoML 和神经架构搜索初探
雷锋网
5+阅读 · 2018年8月1日
【学界】机器学习模型的“可解释性”到底有多重要?
GAN生成式对抗网络
12+阅读 · 2018年3月3日
AutoML—降低机器学习门槛的利器
深度学习
8+阅读 · 2018年1月29日
相关论文
AutoML: A Survey of the State-of-the-Art
Arxiv
69+阅读 · 2019年8月14日
The Evolved Transformer
Arxiv
5+阅读 · 2019年1月30日
Adversarial Transfer Learning
Arxiv
12+阅读 · 2018年12月6日
Arxiv
5+阅读 · 2018年9月11日
Neural Architecture Optimization
Arxiv
8+阅读 · 2018年9月5日
Arxiv
12+阅读 · 2018年9月5日
Arxiv
7+阅读 · 2018年1月24日
Top
微信扫码咨询专知VIP会员