机器学习开放课程(八):使用Vowpal Wabbit高速学习大规模数据集

2018 年 7 月 16 日 论智
来源:Medium
编译:weakish

编者按:机器学习开放课程第八课,Mail.Ru数据科学家Yury Kashnitsky讲解了随机梯度下降、类别数据编码、Vowpal Wabbit机器学习库。

这一课我们将从理论和实践的角度介绍Vowpal Wabbit训练速度非同寻常的原因,在线学习和哈希技巧。我们将在新闻、影评、StackOverflow问题上尝试Vowpal Wabbit。

概览

  1. 随机梯度下降和在线学习

    • SGD

    • 在线学习方法

  2. 类别数据处理

    • 标签编码

    • 独热编码

    • 哈希技巧

  3. Vowpal Wabbit

    • 新闻:二元分类

    • 新闻:多元分类

    • IMDB影评

    • 分类StackOverflow问题

  4. 相关资源

1. 随机梯度下降和在线学习

1.1 随机梯度下降

回顾一下,梯度下降的想法是通过在下降最快的方向上小步前进,以最小化某个函数。这一方法得名于以下微积分的事实:函数f(x) = f(x1, ..., xn)的偏导数向量

指向函数增长最快的方向。这意味着,向相反方向移动(逆梯度),可能以最快的速度降低函数值。

俄罗斯最受欢迎的冬季度假胜地——谢列格什滑雪场,踩着滑雪板的人为本文作者

除了宣传美丽的风光,上面的照片描绘了梯度下降的概念。如果你想滑得尽可能快,你需要选择最陡峭的下降路径。计算逆梯度可以看成评估不同点的坡度。

例子

我们将通过梯度下降求解一个成对回归问题(paired regression problem)。让我们根据一个变量预测另一个变量:根据体重预测身高。我们将假定这些变量是线性相关的。另外,我们将使用的是SOCR数据集。

首先我们导入数据,并绘制散布图:

  
  
    
  1. import warnings

  2. warnings.filterwarnings('ignore')

  3. import os

  4. import re

  5. import numpy as np

  6. import pandas as pd

  7. from tqdm import tqdm_notebook

  8. from sklearn.datasets import fetch_20newsgroups, load_files

  9. from sklearn.preprocessing import LabelEncoder, OneHotEncoder

  10. from sklearn.model_selection import train_test_split

  11. from sklearn.linear_model import LogisticRegression

  12. from sklearn.metrics import classification_report, accuracy_score, log_loss

  13. from sklearn.metrics import roc_auc_score, roc_curve, confusion_matrix

  14. from scipy.sparse import csr_matrix

  15. import matplotlib.pyplot as plt

  16. %matplotlib inline

  17. import seaborn as sns

  18. PATH_TO_ALL_DATA = '../../data/'

  19. data_demo = pd.read_csv(os.path.join(PATH_TO_ALL_DATA,

  20.                                     'weights_heights.csv'))

  21. plt.scatter(data_demo['Weight'], data_demo['Height']);

  22. plt.xlabel('Weight in lb')

  23. plt.ylabel('Height in inches');

我们有一个l维向量x(每个人的体重,也就是训练样本)和向量y(包含数据集中每个人的身高)。

我们要完成的任务是:找到满足以下条件的权重w0和w1,使预测身高yi = w0 + w1xi最小化以下平方误差(等效于最小化均方误差,因为1/l并不会带来什么不同):

我们将使用梯度下降,利用SE(w0, w1)在权重w0和w1上的偏导数。以下简单的更新公式定义了迭代训练过程:

展开偏导数后,我们得到:

在数据量不大的情况下,上面的数学效果不错(我们这里不讨论局部极小值、鞍点、学习率选择、动量等问题,请参考《深度学习》一书的数值计算那一章)。批量梯度下降有一个问题——梯度演算需要累加训练集中所有对象的值。换句话说,该算法需要大量迭代,而每次迭代重新计算权重的过程中都包含累加整个训练集的运算。如果我们有数十亿训练样本,怎么办?

这正是随机梯度下降的动机!简单来说,我们扔掉累加符号,仅仅根据单个训练样本或一小部分训练样本更新权重:

这个方法无法保证我们在每次迭代中以最佳的方向移动。因此,我们可能需要更多的迭代,不过我们的权重更新会快很多。

吴恩达的机器学习课程很好地讲解了这一点。让我们来看一下。

这是某个函数的等值线图,我们想要找出该函数的全局最小值。红线展示了权重变动(图中的θ0和θ1相当于我们的w0和w1)。根据梯度的性质,每点的变动方向垂直于等值线。随机梯度下降时,权重以更难预测的方式变动(紫线),我们甚至可以看到,有些步骤是错误的,正远离最小值;然而,梯度下降和随机梯度下降这两个过程均收敛于同一解。

1.2 在线学习方法

在随机梯度下降的实践指导下,我们可以在多达数百GB的数据上训练分类器和回归器。

考虑成对回归的情形,我们可以将训练数据集(X, y)保存在硬盘上,而不是将整个训练数据集载入内存(内存放不下),然后逐个读取数据,更新模型的权重:

在处理完整个训练数据集后,我们的损失函数会下降,不过通常需要几十个epoch之后损失函数的值才足够小。

这一学习的方法称为在线学习,早在机器学习MOOC成为主流之前,这一术语就出现了。

这里我们没有讨论SGD的很多细节。如果你想要深入这一理论,我强烈推荐Stephen Boyd写的《Convex Optimization》一书。现在,我们将介绍Vowpal Wabbit库,感谢随机优化和特征哈希,它非常擅长在大规模数据集上训练简单模型。

在scikit-learn中,基于SGD训练的分类器和回归器称为SGDClassifierSGDRegressor(见sklearn.linear_model)。这些是很好的SGD实现,不过我们将使用VW,因为在许多方面,它的性能比sklean的SGD模型要好。

2. 类别数据处理

2.1 标签编码

许多分类算法和回归算法基于欧几里得空间运作,这意味着数据表示为由实数组成的向量。然而,真实数据中我们常常碰到具有离散值的类别变量,比如是/否,一月/二月/.../十二月。下面我们将讨论如何处理这类数据,特别是配合线性模型使用的情况下。

让我们探索一下UCI bank marketing数据集,其中大部分特征是类别特征。

  
  
    
  1. df = pd.read_csv(os.path.join(PATH_TO_ALL_DATA, 'bank_train.csv'))

  2. labels = pd.read_csv(os.path.join(PATH_TO_ALL_DATA,

  3.                                  'bank_train_target.csv'), header=None)

  4. df.head()

你可以看到,大部分特征并不由数字表示。这就带来了一个问题,我们无法直接使用大多数机器学习方法(至少就那些scikit-learn实现的而言)。

让我们深入查看一下“教育”特征。

  
  
    
  1. df['education'].value_counts().plot.barh();

最直截了当的方案是将这一特征的每个值映射为唯一的数字。例如,我们可以将university.degree映射为0,basic.9y映射为1,等等。我们可以使用sklearn.preprocessing.LabelEncoder进行这一映射。

  
  
    
  1. label_encoder = LabelEncoder()

  2. mapped_education = pd.Series(label_encoder.fit_transform(

  3.    df['education']))

  4. mapped_education.value_counts().plot.barh()

  5. print(dict(enumerate(label_encoder.classes_)))

输出:

  
  
    
  1. {0: 'basic.4y', 1: 'basic.6y', 2: 'basic.9y', 3: 'high.school', 4: 'illiterate', 5: 'professional.course', 6: 'university.degree', 7: 'unknown'}

  
  
    
  1. df['education'] = mapped_education

  2. df.head()

同样,我们转换其他列:

  
  
    
  1. categorical_columns = df.columns[df.dtypes

  2.                                 == 'object'].union(['education'])

  3. for column in categorical_columns:

  4.    df[column] = label_encoder.fit_transform(df[column])

  5. df.head()

这种方法的主要问题是我们现在引入了一些可能并不存在的相对顺序。

例如,我们隐式地引入了职业特征的代数,我们现在可以从客户一的职业中减去客户二的职业:

  
  
    
  1. df.loc[1].job - df.loc[2].job  # -1.0

这样的操作有意义吗?没有。让我们尝试基于这一特征转换训练逻辑回归。

  
  
    
  1. def logistic_regression_accuracy_on(dataframe, labels):

  2.    features = dataframe.as_matrix()

  3.    train_features, test_features, train_labels, test_labels = \

  4.        train_test_split(features, labels)

  5.    logit = LogisticRegression()

  6.    logit.fit(train_features, train_labels)

  7.    return classification_report(test_labels,

  8.                                 logit.predict(test_features))

  9. print(logistic_regression_accuracy_on(df[categorical_columns],

  10. labels))

我们可以看到,逻辑回归从未预测分类1. 为了在类别特征上使用线性模型,我们需要使用一种不同的方法:独热编码(One-Hot Encoding)。

2.2 独热编码

假设某项特征可能有10个唯一值。独热编码为每个唯一值创建一个新特征,这10个特征中,除了一个特征以外,所有特征的值为零。

sklearn.preprocessingOneHotEncoder类实现了独热编码。默认情况下,OneHotEncoder将数据转换为一个稀疏矩阵,以节约内存空间。不过,在这一特定问题中,我们没有碰到内存问题,所以我们将使用“密集”矩阵表示。

  
  
    
  1. onehot_encoder = OneHotEncoder(sparse=False)

  2. encoded_categorical_columns = \

  3. pd.DataFrame(onehot_encoder.fit_transform(

  4.    df[categorical_columns]))

  5. encoded_categorical_columns.head()

转换维独热编码之后,就可以使用线性模型了:

  
  
    
  1. print(logistic_regression_accuracy_on(encoded_categorical_columns,  labels))

2.3 哈希技巧

真实数据可能是易变的,意味着我们无法保证类别特征不会出现新值。这一问题阻碍了训练好的模型在新数据上的应用。除此以外,LabelEncoder需要对整个数据集进行初步分析,并将构建的映射保存在内存中,这使得在大型数据集上运用标签编码变得困难。

有一个基于哈希的向量化类别数据的简单方法,毫不意外地,它被称为哈希技巧。

哈希函数可以帮助我们为不同的特征值找到唯一的编码,例如:

  
  
    
  1. for s in ('university.degree', 'high.school', 'illiterate'):

  2. print(s, '->', hash(s))

结果:

  
  
    
  1. university.degree -> -6241459093488141593

  2. high.school -> 7728198035707179500

  3. illiterate -> -7360093633803373451

我们不打算使用负值,或者数量级很大的值,所以我们将限制哈希值的范围:

  
  
    
  1. hash_space = 25

  2. for s in ('university.degree', 'high.school', 'illiterate'):

  3. print(s, '->', hash(s) % hash_space)

  
  
    
  1. university.degree -> 7

  2. high.school -> 0

  3. illiterate -> 24

想象下我们的数据集包含一个单身学生,他在周一接到一个电话。他的特征向量会类似于通过独热编码创建的向量:

  
  
    
  1. hashing_example = pd.DataFrame([{i: 0.0 for i in range(hash_space)}])

  2. for s in ('job=student', 'marital=single', 'day_of_week=mon'):

  3.    print(s, '->', hash(s) % hash_space)

  4.    hashing_example.loc[0, hash(s) % hash_space] = 1

  5. hashing_example

  
  
    
  1. job=student -> 20

  2. marital=single -> 23

  3. day_of_week=mon -> 9

我们哈希的不是特征值,而是特征名 + 特征值对。这样我们就可以区分不同特征的相同值。

使用哈希编码可能会遇到碰撞吗?当然有可能,不过只要哈希空间足够大,碰撞很罕见。即使碰撞真的发生了,回归或分类表现也不会受多大影响。在这一情形下,哈希碰撞就像是一种正则化的形式。

你也许会说“尼玛这什么玩意?”;哈希看起来就违背直觉。然而,事实上,有时这是唯一可行的处理类别数据的方法。而且,这一技术已被证实就是好使。等你处理了足够多的数据之后,你可能自己意识到这一点。

3. Vowpal Wabbit

Vowpal Wabbit(VW)是业界使用最广泛的机器学习库之一。它的训练速度很快,支持许多训练模式,特别是在大数据和高维数据方面表现出色。同时,由于VM实现了哈希技巧,它是一个处理文本数据的完美选择。

VW可以作为命令行工具使用。输入以下命令访问VW的帮助页面:

  
  
    
  1. vw --help

vw可以从文件或stdin读取数据,数据格式如下:

  
  
    
  1. [Label] [Importance] [Tag]|Namespace Features |Namespace Features ... |Namespace Features

  2. Namespace=String[:Value]

  3. Features=(String[:Value] )*

其中,[]表示可选元素,(...)*表示接受多个输入。

  • Label(标签)是一个数字。在分类问题中,它通常是1或-1;在回归问题中,它是一个实数(浮点数)。

  • Importance (重要性)是一个数字。它指明了样本的权重。处理失衡数据时,设定Importance很有用。

  • Tag (标记)是不含空格的字符串。它是样本的“名称”。

  • Namespace (命名空间)用于创建不同的特征空间。

  • Features 是给定Namespace中的特征。特征默认权重为1.0,但可以调整,例如feature:0.1

例如,以下字符串匹配VW格式:

  
  
    
  1. 1 1.0 |Subject WHAT car is this |Organization University of Maryland:0.5 College Park

我们可以将其传给vw:

  
  
    
  1. echo '1 1.0 |Subject WHAT car is this |Organization University of Maryland:0.5 College Park' | vw

VW是一个非常棒的处理文本数据的工具。我们将通过20newsgroups数据集展示这一点,该数据集包含来自20种不同新闻组的信息。

3.1 新闻:二元分类

使用sklearn函数加载数据:

  
  
    
  1. newsgroups = fetch_20newsgroups(PATH_TO_ALL_DATA)

  2. newsgroups['target_names']

新闻组的20项主题为:

  
  
    
  1. ['alt.atheism',

  2. 'comp.graphics',

  3. 'comp.os.ms-windows.misc',

  4. 'comp.sys.ibm.pc.hardware',

  5. 'comp.sys.mac.hardware',

  6. 'comp.windows.x',

  7. 'misc.forsale',

  8. 'rec.autos',

  9. 'rec.motorcycles',

  10. 'rec.sport.baseball',

  11. 'rec.sport.hockey',

  12. 'sci.crypt',

  13. 'sci.electronics',

  14. 'sci.med',

  15. 'sci.space',

  16. 'soc.religion.christian',

  17. 'talk.politics.guns',

  18. 'talk.politics.mideast',

  19. 'talk.politics.misc',

  20. 'talk.religion.misc']

让我们看下第一封消息:

  
  
    
  1. text = newsgroups['data'][0]

  2. target = newsgroups['target_names'][newsgroups['target'][0]]

  3. print('-----')

  4. print(target)

  5. print('-----')

  6. print(text.strip())

  7. print('----')

输出:

  
  
    
  1. -----

  2. rec.autos

  3. -----

  4. From: lerxst@wam.umd.edu (where's my thing)

  5. Subject: WHAT car is this!?

  6. Nntp-Posting-Host: rac3.wam.umd.edu

  7. Organization: University of Maryland, College Park

  8. Lines: 15

  9. I was wondering if anyone out there could enlighten me on this car I saw

  10. the other day. It was a 2-door sports car, looked to be from the late 60s/

  11. early 70s. It was called a Bricklin. The doors were really small. In addition,

  12. the front bumper was separate from the rest of the body. This is

  13. all I know. If anyone can tellme a model name, engine specs, years

  14. of production, where this car is made, history, or whatever info you

  15. have on this funky looking car, please e-mail.

  16. Thanks,

  17. - IL

  18.   ---- brought to you by your neighborhood Lerxst ----

  19. ----

现在我们将把数据转换为Vowpal Wabbit可以理解的格式。我们将丢弃所有短于3个符号的单词。这里,我们跳过了一些重要的NLP步骤,像是词干提取和词形还原;不过,我们之后将看到,即使没有这些步骤,VW仍然解决了问题。

  
  
    
  1. def to_vw_format(document, label=None):

  2.    return str(label or '') + ' |text ' + ' '.join(re.findall('\w{3,}',

  3.                                               document.lower())) + '\n'

  4. to_vw_format(text, 1 if target == 'rec.autos' else -1)

输出:

  
  
    
  1. '1 |text from lerxst wam umd edu where thing subject what car this nntp posting host rac3 wam umd edu organization university maryland college park lines was wondering anyone out there could enlighten this car saw the other day was door sports car looked from the late 60s early 70s was called bricklin the doors were really small addition the front bumper was separate from the rest the body this all know anyone can tellme model name engine specs years production where this car made history whatever info you have this funky looking car please mail thanks brought you your neighborhood lerxst\n'

我们将数据集分为训练集和测试集,并将其分别写入不同的文件。如果一份文档和rec.autos相关,那么我们就将它视作正面样本。所以,我们正构建一个模型,区分出汽车有关的文章:

  
  
    
  1. all_documents = newsgroups['data']

  2. all_targets = [1 if newsgroups['target_names'][target] == 'rec.autos'

  3.               else -1 for target in newsgroups['target']]

  4. train_documents, test_documents, train_labels, test_labels = \

  5.    train_test_split(all_documents, all_targets, random_state=7)

  6. with open(os.path.join(PATH_TO_ALL_DATA, '20news_train.vw'), 'w') as vw_train_data:

  7.    for text, target in zip(train_documents, train_labels):

  8.        vw_train_data.write(to_vw_format(text, target))

  9. with open(os.path.join(PATH_TO_ALL_DATA, '20news_test.vw'), 'w') as vw_test_data:

  10.    for text in test_documents:

  11.        vw_test_data.write(to_vw_format(text))

现在,我们将创建的训练文件传给Vowpal Wabbit。我们通过铰链(hinge)损失函数(线性SVM)求解这一分类问题。训练好的模型将保存在20news_model.vw文件中:

  
  
    
  1. vw -d $PATH_TO_ALL_DATA/20news_train.vw \

  2. --loss_function hinge -f $PATH_TO_ALL_DATA/20news_model.vw

输出:

  
  
    
  1. final_regressor = ../../data//20news_model.vw

  2. Num weight bits = 18

  3. learning rate = 0.5

  4. initial_t = 0

  5. power_t = 0.5

  6. using no cache

  7. Reading datafile = ../../data//20news_train.vw

  8. num sources = 1

  9. average  since         example        example  current  current  current

  10. loss     last          counter         weight    label  predict features

  11. 1.000000 1.000000            1            1.0  -1.0000   0.0000      157

  12. 0.911276 0.822551            2            2.0  -1.0000  -0.1774      159

  13. 0.605793 0.300311            4            4.0  -1.0000  -0.3994       92

  14. 0.419594 0.233394            8            8.0  -1.0000  -0.8167      129

  15. 0.313998 0.208402           16           16.0  -1.0000  -0.6509      108

  16. 0.196014 0.078029           32           32.0  -1.0000  -1.0000      115

  17. 0.183158 0.170302           64           64.0  -1.0000  -0.7072      114

  18. 0.261046 0.338935          128          128.0   1.0000  -0.7900      110

  19. 0.262910 0.264774          256          256.0  -1.0000  -0.6425       44

  20. 0.216663 0.170415          512          512.0  -1.0000  -1.0000      160

  21. 0.176710 0.136757         1024         1024.0  -1.0000  -1.0000      194

  22. 0.134541 0.092371         2048         2048.0  -1.0000  -1.0000      438

  23. 0.104403 0.074266         4096         4096.0  -1.0000  -1.0000      644

  24. 0.081329 0.058255         8192         8192.0  -1.0000  -1.0000      174

  25. finished run

  26. number of examples per pass = 8485

  27. passes used = 1

  28. weighted example sum = 8485.000000

  29. weighted label sum = -7555.000000

  30. average loss = 0.079837

  31. best constant = -1.000000

  32. best constant's loss = 0.109605

  33. total feature number = 2048932

VW在训练时会打印很多信息(你可以通过--quiet参数让VW少输出信息)。关于VW输出信息的说明,可以参考GitHub上的文档。就目前而言,我们可以看到,随着训练的进行,平均损失下降了。VW使用之前未见的样本计算损失,所以VW的平均损失通常比较准确。现在,我们将训练好的模型应用于测试集,并将预测保存到由-p指定的文件:

  
  
    
  1. vw -i $PATH_TO_ALL_DATA/20news_model.vw -t -d $PATH_TO_ALL_DATA/20news_test.vw \

  2. -p $PATH_TO_ALL_DATA/20news_test_predictions.txt

现在我们加载预测,计算AUC,并绘制ROC曲线:

  
  
    
  1. with open(os.path.join(PATH_TO_ALL_DATA,

  2.                       '20news_test_predictions.txt')) as pred_file:

  3.    test_prediction = [float(label)

  4.                       for label in pred_file.readlines()]

  5. auc = roc_auc_score(test_labels, test_prediction)

  6. roc_curve = roc_curve(test_labels, test_prediction)

  7. with plt.xkcd():

  8.    plt.plot(roc_curve[0], roc_curve[1]);

  9.    plt.plot([0,1], [0,1])

  10.    plt.xlabel('FPR'); plt.ylabel('TPR');

  11.    plt.title('test AUC = %f' % (auc));

  12. plt.axis([-0.05,1.05,-0.05,1.05]);

可以看到,我们达到了很高的分类质量。

3.2 新闻:多元分类

我们仍将使用之前的新闻组数据集。不过,这次我们将解决一个多元分类问题。VW要求标签从1开始,而sklearn的LabelEncoder的标签则从0开始。因此,我们需要在LabelEncoder的编码上加1:

  
  
    
  1. all_documents = newsgroups['data']

  2. topic_encoder = LabelEncoder()

  3. all_targets_mult = topic_encoder.fit_transform(newsgroups['target']) + 1

仍然像之前一样,我们切分训练集和测试集,并保存到不同文件。

  
  
    
  1. train_documents, test_documents, train_labels_mult, test_labels_mult = \

  2.    train_test_split(all_documents, all_targets_mult, random_state=7)

  3. with open(os.path.join(PATH_TO_ALL_DATA,

  4.                       '20news_train_mult.vw'), 'w') as vw_train_data:

  5.    for text, target in zip(train_documents, train_labels_mult):

  6.        vw_train_data.write(to_vw_format(text, target))

  7. with open(os.path.join(PATH_TO_ALL_DATA,

  8.                       '20news_test_mult.vw'), 'w') as vw_test_data:

  9.    for text in test_documents:

  10. vw_test_data.write(to_vw_format(text))

我们将在多元分类模式下训练Vowpal Wabbit,在oaa参数中传入分类的数目。同时,让我们看下模型的一些参数(更多信息可以在Vowpal Wabbit的官方教程中找到):

  • 学习率(-l,默认0.5)每步权重改变的比率

  • 学习率衰减(--power_t,默认0.5)实践表明,如果学习率随着随机梯度下降的推进而下降,我们能更好地逼近损失的最小值

  • 损失函数(--loss_function)整个训练算法取决于损失函数的选择。可以参考损失函数的文档。

  • 正则化(-l1)注意VW为每个对象计算正则化。所以我们通常将正则值设为10-20左右。

此外,你也可以尝试使用Hyperopt自动调整Vowpal Wabbit参数。

  
  
    
  1. vw — oaa 20 $PATH_TO_ALL_DATA/20news_train_mult.vw -f $PATH_TO_ALL_DATA/20news_model_mult.vw \

  2. — loss_function=hinge

  3. vw -i $PATH_TO_ALL_DATA/20news_model_mult.vw -t -d $PATH_TO_ALL_DATA/20news_test_mult.vw \

  4. -p $PATH_TO_ALL_DATA/20news_test_predictions_mult.txt

让我们看看结果如何:

  
  
    
  1. with open(os.path.join(PATH_TO_ALL_DATA,

  2.                       '20news_test_predictions_mult.txt')) as pred_file:

  3.    test_prediction_mult = [float(label)

  4.                            for label in pred_file.readlines()]

  5. accuracy_score(test_labels_mult, test_prediction_mult)

输出:

  
  
    
  1. 0.8734535171438671

在测试集上的精确度超过87%,还不错。

3.3 IMDB影评

这一节中,我们将对IMDB影评进行二元分类。影评数据可从Google网盘下载:

https://drive.google.com/file/d/1xq4l5c0JrcxJdyBwJWvy0u9Ad_pvkJ1l/view

我们使用sklearn.datasetsload_files函数加载影评。数据集已经分为训练集、测试集两部分,各包含12500好评、12500差评。首先,我们将分割文本和标签:

  
  
    
  1. import pickle

  2. path_to_movies = os.path.expanduser('imdb_reviews')

  3. reviews_train = load_files(os.path.join(path_to_movies, 'train'))

  4. text_train, y_train = reviews_train.data, reviews_train.target

  5. reviews_test = load_files(os.path.join(path_to_movies, 'test'))

  6. text_test, y_test = reviews_test.data, reviews_train.target

查看一些影评的例子和相应的标签:

  
  
    
  1. text_train[0]

输出:

  
  
    
  1. b"Zero Day leads you to think, even re-think why two boys/young men would do what they did - commit mutual suicide via slaughtering their classmates. It captures what must be beyond a bizarre mode of being for two humans who have decided to withdraw from common civility in order to define their own/mutual world via coupled destruction.<br /><br />It is not a perfect movie but given what money/time the filmmaker and actors had - it is a remarkable product. In terms of explaining the motives and actions of the two young suicide/murderers it is better than 'Elephant' - in terms of being a film that gets under our 'rationalistic' skin it is a far, far better film than almost anything you are likely to see. <br /><br />Flawed but honest with a terrible honesty."

这是好评还是差评?

  
  
    
  1. y_train[0]

输出:

  
  
    
  1. 1

看来是好评。

再看一条:

  
  
    
  1. text_train[1]

输出:

  
  
    
  1. b'Words can\'t describe how bad this movie is. I can\'t explain it by writing only. You have too see it for yourself to get at grip of how horrible a movie really can be. Not that I recommend you to do that. There are so many clich\xc3\xa9s, mistakes (and all other negative things you can imagine) here that will just make you cry. To start with the technical first, there are a LOT of mistakes regarding the airplane. I won\'t list them here, but just mention the coloring of the plane. They didn\'t even manage to show an airliner in the colors of a fictional airline, but instead used a 747 painted in the original Boeing livery. Very bad. The plot is stupid and has been done many times before, only much, much better. There are so many ridiculous moments here that i lost count of it really early. Also, I was on the bad guys\' side all the time in the movie, because the good guys were so stupid. "Executive Decision" should without a doubt be you\'re choice over this one, even the "Turbulence"-movies are better. In fact, every other movie in the world is better than this one.'

这条是好评还是差评?

  
  
    
  1. y_train[1]

输出:

  
  
    
  1. 0

嗯,这条是差评。

如前所述,数据集已经分成训练集和测试集两部分。现在我们再从训练集中切分30%出来作为验证集。

  
  
    
  1. train_share = int(0.7 * len(text_train))

  2. train, valid = text_train[:train_share], text_train[train_share:]

  3. train_labels, valid_labels = y_train[:train_share], y_train[train_share:]

同样,我们将它们保存到文件:

  
  
    
  1. with open(os.path.join(PATH_TO_ALL_DATA, 'movie_reviews_train.vw'), 'w') as vw_train_data:

  2.    for text, target in zip(train, train_labels):

  3.        vw_train_data.write(to_vw_format(str(text), 1 if target == 1 else -1))

  4. with open(os.path.join(PATH_TO_ALL_DATA, 'movie_reviews_valid.vw'), 'w') as vw_train_data:

  5.    for text, target in zip(valid, valid_labels):

  6.        vw_train_data.write(to_vw_format(str(text), 1 if target == 1 else -1))

  7. with open(os.path.join(PATH_TO_ALL_DATA, 'movie_reviews_test.vw'), 'w') as vw_test_data:

  8.    for text in text_test:

  9. vw_test_data.write(to_vw_format(str(text)))

然后运行Vowpal Wabbit(我们仍然使用铰链损失,不过你可以试验其他算法):

  
  
    
  1. vw -d $PATH_TO_ALL_DATA/movie_reviews_train.vw --loss_function hinge -f $PATH_TO_ALL_DATA/movie_reviews_model.vw --quiet

训练完成后,让我们在留置的验证集上测试一下表现:

  
  
    
  1. vw -i $PATH_TO_ALL_DATA/movie_reviews_model.vw -t \

  2. -d $PATH_TO_ALL_DATA/movie_reviews_valid.vw -p $PATH_TO_ALL_DATA/movie_valid_pred.txt --quiet

从文件读取预测,并估计精确度和AUC。

  
  
    
  1. with open(os.path.join(PATH_TO_ALL_DATA, 'movie_valid_pred.txt')) as pred_file:

  2.    valid_prediction = [float(label)

  3.                             for label in pred_file.readlines()]

  4. print("Accuracy: {}".format(round(accuracy_score(valid_labels,

  5.               [int(pred_prob > 0) for pred_prob in valid_prediction]), 3)))

  6. print("AUC: {}".format(round(roc_auc_score(valid_labels, valid_prediction), 3)))

输出:

  
  
    
  1. Accuracy: 0.885

  2. AUC: 0.942

在测试集上如法炮制:

  
  
    
  1. vw -i $PATH_TO_ALL_DATA/movie_reviews_model.vw -t \ -d $PATH_TO_ALL_DATA/movie_reviews_test.vw \ -p $PATH_TO_ALL_DATA/movie_test_pred.txt --quiet

  
  
    
  1. with open(os.path.join(PATH_TO_ALL_DATA, 'movie_test_pred.txt')) as pred_file:

  2.    test_prediction = [float(label)

  3.                             for label in pred_file.readlines()]

  4. print("Accuracy: {}".format(round(accuracy_score(y_test,

  5.               [int(pred_prob > 0) for pred_prob in test_prediction]), 3)))

  6. print("AUC: {}".format(round(roc_auc_score(y_test, test_prediction), 3)))

和我们期望的一样,精确度和AUC几乎和验证集上一样:

  
  
    
  1. Accuracy: 0.88

  2. AUC: 0.94

让我们尝试下n元语法,看看能不能提高精确度:

  
  
    
  1. vw -d $PATH_TO_ALL_DATA/movie_reviews_train.vw \ --loss_function hinge --ngram 2 -f $PATH_TO_ALL_DATA/movie_reviews_model2.vw --quiet

  2. vw -i$PATH_TO_ALL_DATA/movie_reviews_model2.vw -t -d $PATH_TO_ALL_DATA/movie_reviews_valid.vw \ -p $PATH_TO_ALL_DATA/movie_valid_pred2.txt --quiet

  3. vw -i $PATH_TO_ALL_DATA/movie_reviews_model2.vw -t -d $PATH_TO_ALL_DATA/movie_reviews_test.vw \ -p $PATH_TO_ALL_DATA/movie_test_pred2.txt --quiet

效果不错:

  
  
    
  1. # 验证集

  2. Accuracy: 0.894

  3. AUC: 0.954

  4. # 测试集

  5. Accuracy: 0.888

  6. AUC: 0.952

3.4 分类StackOverflow问题

现在,让我们看看Vowpal Wabbit在大型数据集上的表现。我们将使用一个10GB的StackOverflow问答数据集:

https://drive.google.com/file/d/1ZU4J3KhJDrHVMj48fROFcTsTZKorPGlG/view?usp=sharing

原始数据集由一千万问题组成,每个问题有多个标签。数据相当整洁,所以别叫它“大数据”,即使是在酒馆中。:)

我们仅仅选取了10个标签:javascriptjavapythonrubyphpc++c#goscalaswift。让我们解决这一十元分类问题:我们想根据问题的文本预测这个问题的标签是10个流行的编程语言中的哪一个。

选取10个标签后,我们得到了一个4.7G的数据集,并将其切分为训练集和测试集。

我们将用Vowpal Wabbit处理训练集(3.1 GiB):

  
  
    
  1. vw --oaa 10 -d $PATH_TO_STACKOVERFLOW_DATA/stackoverflow_train.vw \ -f vw_model1_10mln.vw -b 28 --random_seed 17 --quiet

其中,--oaa 10表示我们有10个分类,-b 28表示我们将使用28位哈希,也就是228特征空间,--random_seed 17固定随机数种子,以便复现。

训练完成之后,看看模型在测试集上的表现:

  
  
    
  1. vw -t -i vw_model1_10mln.vw -d $PATH_TO_STACKOVERFLOW_DATA/stackoverflow_test.vw \ -p vw_test_pred.csv --random_seed 17 --quiet

  
  
    
  1. vw_pred = np.loadtxt(os.path.join(PATH_TO_STACKOVERFLOW_DATA,

  2.                                  'vw_test_pred.csv'))

  3. test_labels = np.loadtxt(os.path.join(PATH_TO_STACKOVERFLOW_DATA,

  4.                                      'stackoverflow_test_labels.txt'))

  5. accuracy_score(test_labels, vw_pred)

结果:

  
  
    
  1. 0.91728604842865913

模型的训练和预测在不到1分钟内就完成了(我使用的是2015年中期的MacBook Pro,2.2 GHz Intel Core i7,16GB RAM)。精确度差不多达到了92%。我们没有使用什么Hadoop集群就做到了这一点。:) 令人印象深刻,不是吗?

4. 相关资源


  • VW的官方文档

  • Deep Learning(《深度学习》)一书的数值计算那一章

  • Stephen Boyd写的Convex Optimization一书

  • Adam Drake写的博客文章Command-line Tools can be 235x Faster than your Hadoop Cluster

  • GitHub上的多种ML算法在Criteo 1TB数据集上的评测rambler-digital-solutions/criteo-1tb-benchmark

  • FastML博客上VW分类的帖子

原文地址:https://medium.com/open-machine-learning-course/open-machine-learning-course-topic-8-vowpal-wabbit-fast-learning-with-gigabytes-of-data-60f750086237

相关阅读:


机器学习开放课程(七):无监督学习:PCA和聚类

机器学习开放课程(六):特征工程和特征选取

机器学习开放课程(五):Bagging与随机森林

机器学习开放课程(四)线性分类与线性回归

机器学习开放课程(三):分类、决策树和K近邻

机器学习开放课程(二):使用Python可视化数据

机器学习开放课程(一):使用Pandas探索数据分析

登录查看更多
0

相关内容

随机梯度下降,按照数据生成分布抽取m个样本,通过计算他们梯度的平均值来更新梯度。
专知会员服务
19+阅读 · 2020年3月29日
Sklearn 与 TensorFlow 机器学习实用指南,385页pdf
专知会员服务
129+阅读 · 2020年3月15日
【新书】Python编程基础,669页pdf
专知会员服务
193+阅读 · 2019年10月10日
MIT新书《强化学习与最优控制》
专知会员服务
275+阅读 · 2019年10月9日
盘一盘 Python 系列 8 - Sklearn
平均机器
5+阅读 · 2019年5月30日
sklearn 与分类算法
人工智能头条
7+阅读 · 2019年3月12日
[机器学习] 用KNN识别MNIST手写字符实战
机器学习和数学
4+阅读 · 2018年5月13日
用 Scikit-Learn 和 Pandas 学习线性回归
Python开发者
9+阅读 · 2017年9月26日
Arxiv
10+阅读 · 2020年4月5日
Arxiv
22+阅读 · 2019年11月24日
Meta-Learning with Implicit Gradients
Arxiv
13+阅读 · 2019年9月10日
Inferred successor maps for better transfer learning
Arxiv
9+阅读 · 2019年4月19日
Nocaps: novel object captioning at scale
Arxiv
6+阅读 · 2018年12月20日
Arxiv
8+阅读 · 2018年5月15日
VIP会员
相关资讯
盘一盘 Python 系列 8 - Sklearn
平均机器
5+阅读 · 2019年5月30日
sklearn 与分类算法
人工智能头条
7+阅读 · 2019年3月12日
[机器学习] 用KNN识别MNIST手写字符实战
机器学习和数学
4+阅读 · 2018年5月13日
用 Scikit-Learn 和 Pandas 学习线性回归
Python开发者
9+阅读 · 2017年9月26日
相关论文
Arxiv
10+阅读 · 2020年4月5日
Arxiv
22+阅读 · 2019年11月24日
Meta-Learning with Implicit Gradients
Arxiv
13+阅读 · 2019年9月10日
Inferred successor maps for better transfer learning
Arxiv
9+阅读 · 2019年4月19日
Nocaps: novel object captioning at scale
Arxiv
6+阅读 · 2018年12月20日
Arxiv
8+阅读 · 2018年5月15日
Top
微信扫码咨询专知VIP会员