点击上方蓝字关注
作者:July
说明:本文是七月在线机器学习第九期第五次课 特征工程的课程笔记,课程主讲老师:寒小阳 加号 张雨石 Johnson,本笔记得到寒小阳等相关老师的校对。
时间:二零一八年七月三十一日。
前言
我所在公司七月在线每个月都是各种机器学习、深度学习、人工智能课程,通过三年半的打磨,内容质量已经足够精良,我也在这耳闻目染中不断被各种从传统IT成功转行转型转岗AI,然后拿到年薪30~50万的消息刷屏。
被刷的心痒痒不说,加上自己喜欢研究,擅长把艰深晦涩的东西通俗易懂的阐述出来,所以准备未来一个月三十篇ML课程笔记,平均每天一篇,类似之前的KMP SVM CNN 目标检测,发博客、公号、题库、社区。且联合公司的讲师团队确保专业,争取每个专题/模型 都成为每一个ML初学者必看的第一篇 。
另外,每一篇笔记基本都将是带着beats耳机边用七月在线APP听课程边做笔记(恩,APP支持倍速1.5倍或2倍播放),为的是我确保通俗,讲授课程的讲师确保专业。还是那句老话,有何问题,欢迎在评论里留言指正,thanks。
什么是特征工程
有这么一句话在业界广泛流传:数据和特征决定了机器学习的上限,而模型和算法只是逼近这个上限而已。
但特征工程很少在机器学习相关的书中阐述,包括很多网络课程,七月在线还是第一个在机器学习课程里讲特征工程的课。但直到现在,很多机器学习课程还是不讲特征工程,在我眼里,讲机器学习但不讲特征工程是不专业的(相信此文一出,会改进他们)。
那特征工程到底是什么,它真的有那么重要么?
顾名思义,特征工程其本质是一项工程活动,目的是最大限度地从原始数据中提取特征以供算法和模型使用。
而在公司做机器学习,大部分时间不是研究各种算法、设计高大上模型,也不是各种研究深度学习的应用,或设计N层神经网络,实际上,70~80%的时间都是在跟数据、特征打交道。
因为大部分复杂模型的算法精进都是数据科学家在做。而大多数同学在干嘛呢?在跑数据,或各种map-reduce,hive SQL,数据仓库搬砖,然后做数据清洗、分析业务和case,以及找特征。包括很多大公司不会首选用复杂的模型,有时就是一招LR打天下。
在某kaggle数据科学二分类比赛,通过有效特征的抽取,auc能提升2%(auc是评价模型好坏的常见指标之一),而通过看起来高大上的模型调参优化,auc提升只能约5‰。包括在一个电商商品推荐比赛,推荐大赛第一名的组,基于特征工程,比工程师的推荐准确 度提升16%。
通过总结和归纳,一般认为特征工程包括以下方面(下图来源于ml9学员海阔天空对特征工程一课的总结):
数据与特征处理
2.1 数据采集
假定我现在要预测用户对商品的下单情况(买还是不买),那我可以采集比如店家的信誉度、商品本身的评价、用户操作行为等信息,或者把这些信息交叉起来做一些组合特征。
2.2 数据格式化
首先确定存储格式。比如,时间你 年月日 or 时间戳 or 第几天 or,或者单个动作记录 or 一天行为聚合。当然,大多数情况下,需要关联非常非常多的hive表和集群文件(例如hdfs)。
2.3 数据清洗
考虑到采集到的数据可能包含一些噪声,所以数据清洗的目标就是去掉脏数据,比如用garbage in, garbage out。
当然,算法大多数时候就是一个加工机器,至于最后的产品/成品如何,很大程度上取决于原材料的好坏。而选取或改进原材料的过程会花掉一大部分时间,而效率高低取决于你对于业务的理解程度。
2.4 数据采样
很多情况下,正负样本是不均衡的。比如电商平台上,用户买和没买过的两类商品之间,数量会相差很大,因为购买需要花钱,所以大部分用户只逛不买。而大多数模型对正负样本比是敏感的(比如LR)。
那怎么处理正负样本不平衡的问题呢?为了让样本是比较均衡,一般用随机采样,和分层采样的办法。
比如如果正样本多于负样本,且量都挺大,则可以采用下采样。如果正样本大于负样本,但量不大,则可以采集更多的数据,或者oversampling(比如图像识别中的镜像和旋转),以及修改损失函数/loss function的办法来处理正负样本不平衡的问题。
2.5 特征处理
在特征处理的过程中,我们会面对各种类型的数据,比如数值型(比如年龄的大小)、类别型(比如某个品牌的口红可能有十八种色号,比如衣服大小L XL XLL,比如星期几)、时间类、文本型、统计型等等。
2.5.1 数值型数据
针对数值型数据的特征处理有以下几种方法:幅度调整、Log等数据域变化、统计值max, min, mean, std、离散化、Hash分桶、每个类别下对应的变量统计值histogram(分布状况),以及试试 数值型 => 类别型。
接下来,重点阐述下其中几种方法。比如,把数据幅度调整到[0,1]范围内,如下代码所示
这个操作有一个专有名词,即叫归一化。
为什么要归一化呢?很多同学并未搞清楚,维基百科给出的解释:1)归一化后加快了梯度下降求最优解的速度;2)归一化有可能提高精度。
下面再简单扩展解释下这两点。
1 归一化为什么能提高梯度下降法求解最优解的速度?
如下两图所示(来源:斯坦福机器学习视频)
蓝色的圈圈图代表的是两个特征的等高线。其中左图两个特征X1和X2的区间相差非常大,X1区间是[0,2000],X2区间是[1,5],像这种有的数据那么大,有的数据那么小,两类之间的幅度相差这么大,其所形成的等高线非常尖。当使用梯度下降法寻求最优解时,很有可能走“之字型”路线(垂直等高线走),从而导致需要迭代很多次才能收敛;
而右图对两个原始特征进行了归一化,其对应的等高线显得很圆,在梯度下降进行求解时能较快的收敛。
因此如果机器学习模型使用梯度下降法求最优解时,归一化往往非常有必要,否则很难收敛甚至不能收敛。
2 归一化有可能提高精度
一些分类器需要计算样本之间的距离(如欧氏距离),例如KNN。如果一个特征值域范围非常大,那么距离计算就主要取决于这个特征,从而与实际情况相悖(比如这时实际情况是值域范围小的特征更重要)。
3 归一化的类型
1)线性归一化
这种归一化方法比较适用在数值比较集中的情况。这种方法有个缺陷,如果max和min不稳定,很容易使得归一化结果不稳定,使得后续使用效果也不稳定。实际使用中可以用经验常量值来替代max和min。
2)标准差标准化
经过处理的数据符合标准正态分布,即均值为0,标准差为1,其转化函数为:
其中μ为所有样本数据的均值,σ为所有样本数据的标准差。
3)非线性归一化
经常用在数据分化比较大的场景,有些数值很大,有些很小。通过一些数学函数,将原始值进行映射。该方法包括 log、指数,正切等。需要根据数据分布的情况,决定非线性函数的曲线,比如log(V, 2)还是log(V, 10)等。
再比如,对数据做标准化
再比如,对数据做统计值
或者,对数据做离散化。比如说一个人的年龄是一个连续值,但连续值放进一些模型里比如Logistic Regression则不太好使,这个时候便要对数据进行离散化,通俗理解就是把连续的值分成不同的段,每一段列成特征,从而分段处理。
以及对数据做柱状分布(比例)
2.5.2 类型型数据
当我们面对一些类别型的数据,比如某品牌的口红具有多种色号,如果是人,不同的色号人类一眼即可看出。但计算机不像人的眼睛对颜色有感知,计算机只能读懂数字,严格来说,只能读懂01二进制。所以计算机为了辨别颜色,需要给各种颜色编码。
针对口红色号这种类别型数据的特征,可以使用One-hot编码/哑变量。
而针对一些文本形式的类别型数据时,也可以使用Hash技巧做一些词频统计
最后,还有一种类别型的数据,比如男性女性在很多行为上会有差别,对此,可以使用Histogram映射方法统计男女生的爱好。
男:[1/3,2/3,0]; 女:[0,1/3,2/3]; 21:[1,0,0];22:[0,0,1]…
2.5.3 时间型数据
对于时间型数据既可以看做连续值,也可以看做离散值。比如
• 这些时间型数据可以看做是连续值:持续时间(用户单页的浏览时长)、间隔时间(用户上次购买/点击离现在的时间)。
• 这些时间型数据可以看做是离散值:一天中哪个时间段(hour_0-23)、一周中星期几(week_monday...)、一年中哪个星期、一年中哪个季度、工作日/周末等方面的数据。
2.5.4 文本型数据
如果是文本类型的数据,比如词袋,则可以在文本数据预处理后,去掉停用词,剩下的词组成的list, 在词库中的映射稀疏向量。
下图所示的操作是词袋的Python处理方法
这个时候会遇到一个问题,比如李雷喜欢韩梅梅,跟韩梅梅喜欢李雷这两句话的含义是不一样的,但用上面那种词袋模型无法区分男追女还是女追男这种顺序。
为处理这个问题,可以把词袋中的词扩充到n-gram
2.5.5 文本型数据
对于文本型的数据,会经常用到Tf–idf 特征。它是用来解决这样一个问题:即怎么来判定某个词在整个文档中的重要性呢?只看它出现的频次么?好像不是,因为想的、得、地这种词通常在各篇文档中会经常出现,但不代表这类词在文档中很重要。
为了更准确的评估一字词对于一个文件集或一个语 料库中的其中一份文件的重要程度,我们会用到TF-IDF这种统计方法。字词的重要性随着它在文件中 出现的次数成正比增加,但同时会随着它在语料库中出现的频率成 反比下降。
🔹 TF: Term Frequency
🔹 TF(t) = (词t在当前文中出现次数) / (t在全部文档中出现次数)
🔹 IDF:
🔹 IDF(t) = ln(总文档数/ 含t的文档数)
TF-IDF权重 = TF(t) * IDF(t)
对于词袋,一般会用到word2vec这个模型。
对于这个模型,现在有各种开源工具,比如:google word2vec、gensim、facebook fasttext
2.5.6 统计型数据
对于统计特征而言,历届的Kaggle/天池比赛,天猫/京东排序和推荐业务线里 模型用到的特征,比如
🔷 加减平均:商品价格高于平均价格多 少,用户在某个品 类下消费超过平均用 户多少,用户连续登录天数超过平 均多 少...
🔷 分位线:商品属于售出商品价格的多少 分位线处
🔷 次序型:排在第几位
🔷 比例类:电商中,好/中/差评比例
🔷 你已超过全国百分之…的同学
2.5.7 组合特征
组合特征型的数据咱们通过一个示例来说明。
之前阿里云天池(目前是七月在线的长期合作方)上有一个移动推荐算法大赛,比赛的目标是为了给移动用户在合适的时间地点下精准推荐合适的商品/内容,以提升移动用户的浏览或购买体验。
比赛地址:https://tianchi.aliyun.com/competition/information.htm?spm=5176.11409106.5678.2.775611a3TEgD32&raceId=1
竞赛题目
在真实的业务场景下,我们往往需要对所有商品的一个子集构建个性化推荐模型。在完成这件任务的过程中,我们不仅需要利用用户在这个商品子集上的行为数据,往往还需要利用更丰富的用户行为数据。定义如下的符号:
U——用户集合
I——商品全集
P——商品子集,P ⊆ I
D——用户对商品全集的行为数据集合
那么我们的目标是利用D来构造U中用户对P中商品的推荐模型。
数据说明
竞赛数据包含两个部分。第一部分是用户在商品全集上的移动端行为数据(D),表名为tianchi_mobile_recommend_train_user,包含如下字段:
对于这个问题,我们要做大量的数据处理,比如:
前一天的购物车商品很有可能第二天就被购买 => 规则
剔除掉在30天里从来不买东西的人 => 数据清洗
加车N件,只买了一件的,剩余的不会买=> 规则
购物车购买转化率 =>用户维度统计特征
商品热度 =>商品维度统计特征
对不同item点击/收藏/购物车/购买的总计 =>商品维度统计特征
变热门的品牌/商品 =>商品维度统计特征(差值型)
对不同item点击/收藏/购物车/购买平均每个user的计数=>用户维 度统计特征
最近第1/2/3/7天的行为数与平均行为数的比值 =>用户维度统计 特征(比例型)
商品在类别中的排序 =>商品维度统计特征(次序型)
商品交互的总人数 =>商品维度统计特征(求和型)
商品的购买转化率及转化率与类别平均转化率的比值=>商品维度统 计特征(比例型)
商品行为/同类同行为均值=>商品维度统计特征(比例型)
最近1/2/3天的行为(按4类统计)=>时间型+用户维度统计特征
最近的交互离现在的时间=>时间型
总交互的天数=>时间型
用户A对品牌B的总购买数/收藏数/购物车数=>用户维度统计特征
用户A对品牌B的点击数的平方 =>用户维度统计特征
用户A对品牌B的购买数的平方=>用户维度统计特征
用户A对品牌B的点击购买比=>用户维度统计特征(比例型)
用户交互本商品前/后,交互的商品数=>时间型+用户维度统计特征
用户前一天最晚的交互行为时间=>时间型
用户购买商品的时间(平均,最早,最晚)=>时间型
而有些特征也可以做一下组合,比如以下一些拼接型的简单组合特征
简单组合特征:拼接型
user_id&&category: 10001&&女裙 10002&&男士牛仔
user_id&&style: 10001&&蕾丝 10002&&全棉
包括实际电商点击率预估中:正负权重,喜欢&&不喜欢某种类型
以及一些模型特征组合
用GBDT产出特征组合路径
组合特征和原始特征一起放进LR训练
最早Facebook使用的方式,多家互联网公司在用
包括另一种基于树模型的组合特征:GBDT+LR,学习出来一系列组合特征。
特征选择
通过上一节的各种特征处理方法,可以产生很多特征,但会有些问题,比如
冗余:部分特征的相关度太高了,消耗计算性能
噪声:部分特征是对预测结果有负影响
针对这两个问题,咱们便得做下特征选择,包括降维
特征选择是指踢掉原本特征里和结果预测关系不大的
SVD或者PCA确实也能解决一定的高维度问题
接下来,咱们了解下各种特征选择的方式。
3.1 过滤型
评估单个特征和结果值之间的相关程度,排序留下Top相关的特征部分。而计算相关程度可以用Pearson相关系数、互信息、距离相关度来计算。
这种方法的缺点是:没有考虑到特征之间的关联作用,可能把有用的关联特征误踢掉。
过滤型特征选择Python包
3.2 包裹型
包裹型是指把特征选择看做一个特征子集搜索问题,筛选各种特征子集,用模型评估效果。典型的包裹型算法为 “递归特征删除算法”(recursive feature elimination algorithm)。
比如用逻辑回归,怎么做这个事情呢?
1、用全量特征跑一个模型
2、根据线性模型的系数(体现相关性),删掉5-10%的弱特征,观察准确率/auc的变化
3、逐步进行,直至准确率/auc出现大的下滑停止
包裹型特征选择Python包
3.3 嵌入型
嵌入型特征选择是指根据模型来分析特征的重要性(有别于上面的方式, 是从生产的模型权重等)。最常见的方式为用正则化方式来做特征选择。
且慢,什么是正则化?正则化一般分为两种:L1正则化和L2正则化。
一般回归分析中回归w表示特征的系数,从上式可以看到正则化项是对系数做了处理(限制)。
L1正则化和L2正则化的说明如下:
🔷 L1正则化是指权值向量w中各个元素的绝对值之和,通常表示为
🔷 L2正则化是指权值向量w中各个元素的平方和然后再求平方根(可以看到Ridge回归的L2正则化项有平方符号),通常表示为
一般都会在正则化项之前添加一个系数,Python中用α表示,一些文章也用λ表示。这个系数需要用户指定。
那添加L1和L2正则化有什么用?
🔷 L1正则化可以产生稀疏权值矩阵,即产生一个稀疏模型,可以用于特征选择
🔷 L2正则化可以防止模型过拟合(overfitting)。当然,一定程度上,L1也可以防止过拟合
稀疏模型与特征选择
上面提到L1正则化有助于生成一个稀疏权值矩阵,进而可以用于特征选择。为什么要生成一个稀疏矩阵?
稀疏矩阵指的是很多元素为0,只有少数元素是非零值的矩阵,即得到的线性回归模型的大部分系数都是0. 通常机器学习中特征数量很多,例如文本处理时,如果将一个词组(term)作为一个特征,那么特征数量会达到上万个(bigram)。
在预测或分类时,那么多特征显然难以选择,但是如果代入这些特征得到的模型是一个稀疏模型,表示只有少数特征对这个模型有贡献,绝大部分特征是没有贡献的,或者贡献微小(因为它们前面的系数是0或者是很小的值,即使去掉对模型也没有什么影响),此时我们就可以只关注系数是非零值的特征。这就是稀疏模型与特征选择的关系。
举个例子,最早在电商用LR做CTR预估,在3-5亿维的系数 特征上用L1正则化的LR模型。剩余2-3千万的feature,意 味着其他的feature重要度不够。
嵌入型特征选择Python包
至于课程上的两个实践案例,比如kaggle自行车租赁预测比赛暂不更。有兴趣的可以先自行查看「七月在线机器学习第九期第五次课特征工程」的视频内容,本文基本就是这次课的课程笔记。
后记
本文还在不断修改、完善。July、二零一八年八月二日下午6点,七月在线办公室。
本文来源于CSDN博客,作者:July
博客链接:https://blog.csdn.net/v_july_v/article/details/81319999
分享一哈:和大家分享完满满的干货,小七再和大家分享下喔,我们的【机器学习集训营第五期】,此课程于7.31已经开课,现在还在火热报名中,可想而知,该集训营课程有多么受欢迎喽,三个月挑战年薪四十万,你绝对值得拥有~~
点击下方“阅读原文”可在线报名,或添加客服咨询:julyedukefu_02
更多资讯
请戳一戳
往期精选
人工智能 | AI人才薪酬是什么水平?看完惊呆了!
面试大题 | 教你如何迅速秒杀掉:99%的海量数据处理面试题
干货合集 |【干货合集】从贝叶斯方法谈到贝叶斯网络
分享一哈 | 推荐系统算法合集,满满都是干货(建议收藏)
点击“阅读原文”,可在线报名