教程 | 用Scikit-Learn实现多类别文本分类

2018 年 5 月 14 日 七月在线实验室

原文链接:https://towardsdatascience.com/multi-class-text-classification-with-scikit-learn-12f1e60e0a9f

GitHub 地址:https://github.com/susanli2016/Machine-Learning-with-Python/blob/master/Consumer_complaints.ipynb

商业活动中有很多文本分类应用。例如,新闻报道通常是按照主题进行构架;内容或产品通常是根据类别添加标签;可以根据用户如何在线讨论某个产品或品牌将其分为多个群组......

然而,互联网上绝大多数的文本分类文章和教程都是二进制文本分类,比如垃圾邮件过滤,情感分析。大多数情况下,现实世界的问题更为复杂。因此,这就是我们今天要做的事情:将消费者的金融投诉分为 12 个预定义的类别。

我们使用 Python 和 Jupyter Notebook 开发系统,机器学习方面则借助 Scikit-Learn。如果你想要 PySpark 实现,请阅读下篇文章。


问题表述

该问题是监督式文本分类问题,我们的目标是调查哪种监督式机器学习方法最适合解决它。

当出现新投诉时,我们希望将其分配到 12 个类别中的一个。分类器假设每个新投诉都被分配到一个且仅一个的类别之中。这是多类别文本分类问题。我迫不及待想看到我们能实现什么!


数据探索

在深入训练机器学习模型之前,我们首先应该看一些实例,以及每个类别的投诉数量:

import pandas as pd
df = pd.read_csv('Consumer_Complaints.csv')
df.head()

对于这个项目,我们只需要两栏——「产品」和「消费者投诉叙述」。


输入: Consumer_complaint_narrative

实例:「我的信用报告中有过时的信息,我以前有争议的是这些信息已超过七年未被删除,并且不符合信用报告的要求」


输出:product

实例:信用报告

我们将删除「消费者投诉叙述」栏中的缺失值,并添加一列来将产品编码为整数,因为分类变量通常用整数表示比用字符串更好。

我们还创建了几个字典供将来使用。

清理完成后,这是我们将要处理的前五行数据:

from io import StringIO
col = ['Product', 'Consumer complaint narrative']
df = df[col]
df = df[pd.notnull(df['Consumer complaint narrative'])]
df.columns = ['Product', 'Consumer_complaint_narrative']
df['category_id'] = df['Product'].factorize()[0]
category_id_df = df[['Product', 'category_id']].drop_duplicates().sort_values('category_id')
category_to_id = dict(category_id_df.values)
id_to_category = dict(category_id_df[['category_id', 'Product']].values)
df.head()

不平衡类

我们看到每件产品的投诉数量不平衡。消费者的投诉更集中于收取欠款、信用报告和抵押方面。

import matplotlib.pyplot as plt
fig = plt.figure(figsize=(8,6))
df.groupby('Product').Consumer_complaint_narrative.count().plot.bar(ylim=0)
plt.show()

当我们遇到这样的问题时,我们使用标准算法解决这些问题必然会遇到困难。常规算法往往偏向于多数类别,而不考虑数据分布。在最糟糕的情况下,少数类别被视为异常值并被忽略。对于某些情况,如欺诈检测或癌症预测,我们则需要仔细配置我们的模型或人为地平衡数据集,比如欠采样或过采样每个类别。

但是,在学习不平衡数据的情况下,我们最感兴趣的是多数类。我们想有一个分类器,能够对多数类提供较高的预测精度,同时对少数类保持合理的准确度。因此我们会保持原样。


文本表达

分类器和学习算法不能直接处理原始形式的文本文档,因为它们大多数都期望大小固定的数字特征向量而不是具有可变长度的原始文本文档。因此,在预处理步骤中,文本被转换为更易于管理的表达。

从文本中提取特征的一种常见方法是使用词袋模型:对于每个文档,我们案例中的投诉叙述、单词的出现(通常是频率)被考虑在内,而它们出现顺序则被忽略。

具体来说,对于我们数据集中的每一项,我们将计算一种被称为词频、反向文档频率的值,其缩写为 tf-idf。我们将使用 sklearn.feature_extraction.text.TfidfVectorizer 为每个消费者投诉叙述计算一个 tf-idf 向量。

  • sublinear_df 设为 True 从而使用频率的对数形式。

  • min_df 是单词必须存在的最小文档数量。

  • norm 设为 l2,以确保我们所有特征向量的欧几里德范数为 1。

  • ngram_range 设为 (1, 2),表示我们想要考虑 unigrams 和 bigrams。

  • stop_words 设为 "english" 来删除所有常用代词 ("a", "the", ...) 以减少噪音特征的数量。

from sklearn.feature_extraction.text import TfidfVectorizer
tfidf = TfidfVectorizer(sublinear_tf=True, min_df=5, norm='l2', encoding='latin-1', ngram_range=(1, 2), stop_words='english')
features = tfidf.fit_transform(df.Consumer_complaint_narrative).toarray()
labels = df.category_id
features.shape


(4569, 12633)

现在,4569 个消费者投诉描述中的每一个由 12633 个特征表达,代表不同的 unigrams 和 bigrams 的 tf-idf 分数。

我们可以使用 sklearn.feature_selection.chi2 来查找与每个产品最相关的项:

from sklearn.feature_selection import chi2
import numpy as np
N = 2
for Product, category_id in sorted(category_to_id.items()):
features_chi2 = chi2(features, labels == category_id)
indices = np.argsort(features_chi2[0])
feature_names = np.array(tfidf.get_feature_names())[indices]
unigrams = [v for v in feature_names if len(v.split(' ')) == 1]
bigrams = [v for v in feature_names if len(v.split(' ')) == 2]
print("# '{}':".format(Product))
print(" . Most correlated unigrams:\n. {}".format('\n. '.join(unigrams[-N:])))
print(" . Most correlated bigrams:\n. {}".format('\n. '.join(bigrams[-N:])))

它们都有道理,难道不是吗?


多类别分类器:特征和设计

  • 为了训练监督式分类器,我们首先将「消费者投诉叙述」转化为数字向量。我们研究了向量表示,例如 TF-IDF 加权向量。

  • 有了这个向量表达的文本后,我们可以训练监督式分类器来训练看不到的「消费者投诉叙述」并预测它们的「产品」。

在完成上述数据转换之后,现在我们拥有所有的特征和,是时候训练分类器了。我们可以使用很多算法来解决这类问题。

  • 朴素贝叶斯分类器:最适合字数统计的是多项式变体:

from sklearn.model_selection import train_test_split
from sklearn.feature_extraction.text import CountVectorizer
from sklearn.feature_extraction.text import TfidfTransformer
from sklearn.naive_bayes import MultinomialNB
X_train, X_test, y_train, y_test = train_test_split(df['Consumer_complaint_narrative'], df['Product'], random_state = 0)
count_vect = CountVectorizer()
X_train_counts = count_vect.fit_transform(X_train)
tfidf_transformer = TfidfTransformer()
X_train_tfidf = tfidf_transformer.fit_transform(X_train_counts)
clf = MultinomialNB().fit(X_train_tfidf, y_train)

在拟合好训练集后,让我们做一些预测。

print(clf.predict(count_vect.transform(["This company refuses to provide me verification and validation of debt per my right under the FDCPA. I do not believe this debt is mine."])))

「『收回欠款』」

df[df['Consumer_complaint_narrative'] == "This company refuses to provide me verification and validation of debt per my right under the FDCPA. I do not believe this debt is mine."]

print(clf.predict(count_vect.transform(["I am disputing the inaccurate information the Chex-Systems has on my credit report. I initially submitted a police report on XXXX/XXXX/16 and Chex Systems only deleted the items that I mentioned in the letter and not all the items that were actually listed on the police report. In other words they wanted me to say word for word to them what items were fraudulent. The total disregard of the police report and what accounts that it states that are fraudulent. If they just had paid a little closer attention to the police report I would not been in this position now and they would n't have to research once again. I would like the reported information to be removed : XXXX XXXX XXXX"])))

「『信用报告』」

df[df['Consumer_complaint_narrative'] == "I am disputing the inaccurate information the Chex-Systems has on my credit report. I initially submitted a police report on XXXX/XXXX/16 and Chex Systems only deleted the items that I mentioned in the letter and not all the items that were actually listed on the police report. In other words they wanted me to say word for word to them what items were fraudulent. The total disregard of the police report and what accounts that it states that are fraudulent. If they just had paid a little closer attention to the police report I would not been in this position now and they would n't have to research once again. I would like the reported information to be removed : XXXX XXXX XXXX"]

不是太寒酸!


模型选择

我们现在准备尝试不同的机器学习模型,评估它们的准确性并找出潜在问题的根源。

我们将对以下四种模型进行基准测试:

  • Logistic 回归

  • (多项式)朴素贝叶斯

  • 线性支持向量机

  • 随机森林

from sklearn.linear_model import LogisticRegression
from sklearn.ensemble import RandomForestClassifier
from sklearn.svm import LinearSVC
from sklearn.model_selection import cross_val_score
models = [
RandomForestClassifier(n_estimators=200, max_depth=3, random_state=0),
LinearSVC(),
MultinomialNB(),
LogisticRegression(random_state=0),
]
CV = 5
cv_df = pd.DataFrame(index=range(CV * len(models)))
entries = []
for model in models:
model_name = model.__class__.__name__
accuracies = cross_val_score(model, features, labels, scoring='accuracy', cv=CV)
for fold_idx, accuracy in enumerate(accuracies):
entries.append((model_name, fold_idx, accuracy))
cv_df = pd.DataFrame(entries, columns=['model_name', 'fold_idx', 'accuracy'])
import seaborn as sns
sns.boxplot(x='model_name', y='accuracy', data=cv_df)
sns.stripplot(x='model_name', y='accuracy', data=cv_df,
size=8, jitter=True, edgecolor="gray", linewidth=2)
plt.show()

cv_df.groupby('model_name').accuracy.mean()

模型名称

  • 线性支持向量机:0.822890

  • Logistic 回归:0.792927

  • (多项式)朴素贝叶斯:0.688519

  • 随机森林:0.443826

名称:精确度,dtype:float64

线性支持向量机和 Logistic 回归比其他两个分类器执行的更好,前者具有轻微的优势,其中位精度约为 82%。


模型评估

继续使用我们的最佳模型(LinearSVC),我们将查看混淆矩阵,并展示预测标签和实际标签之间的差异。

model = LinearSVC()
X_train, X_test, y_train, y_test, indices_train, indices_test = train_test_split(features, labels, df.index, test_size=0.33, random_state=0)
model.fit(X_train, y_train)
y_pred = model.predict(X_test)
from sklearn.metrics import confusion_matrix
conf_mat = confusion_matrix(y_test, y_pred)
fig, ax = plt.subplots(figsize=(10,10))
sns.heatmap(conf_mat, annot=True, fmt='d',
xticklabels=category_id_df.Product.values, yticklabels=category_id_df.Product.values)
plt.ylabel('Actual')
plt.xlabel('Predicted')
plt.show()

正如我们所希望的,绝大多数预测都在对角线结束(预测标签=实际标签)。然而,仍然存在大量错误分类,看看这些是由什么造成的可能很有趣:

from IPython.display import display
for predicted in category_id_df.category_id:
for actual in category_id_df.category_id:
if predicted != actual and conf_mat[actual, predicted] >= 10:
print("'{}' predicted as '{}' : {} examples.".format(id_to_category[actual], id_to_category[predicted], conf_mat[actual, predicted]))
display(df.loc[indices_test[(y_test == actual) & (y_pred == predicted)]][['Product', 'Consumer_complaint_narrative']])
print('')

如你所见,一些错误分类的投诉涉及多个主题(比如涉及信用卡和信用报告的投诉)。这种错误总是发生。

再次,我们使用卡方检验来找到与每个类别最相关的项:

model.fit(features, labels)
N = 2
for Product, category_id in sorted(category_to_id.items()):
indices = np.argsort(model.coef_[category_id])
feature_names = np.array(tfidf.get_feature_names())[indices]
unigrams = [v for v in reversed(feature_names) if len(v.split(' ')) == 1][:N]
bigrams = [v for v in reversed(feature_names) if len(v.split(' ')) == 2][:N]
print("# '{}':".format(Product))
print(" . Top unigrams:\n . {}".format('\n . '.join(unigrams)))
print(" . Top bigrams:\n . {}".format('\n . '.join(bigrams)))

它们符合我们的预期。

最后,我们打印出每个类的分类报告:

from sklearn import metrics
print(metrics.classification_report(y_test, y_pred, target_names=df['Product'].unique()))

【机器学习集训营 四期】今晚(5月14日)开课,北京、上海、深圳、广州、杭州、沈阳、济南、郑州、成都九城同步开营。线上+线下授课模式,BAT专家面对面、手把手教学;

10个工业项目实战辅导 + 一对一面试求职辅导,真正帮你从零转型机器学习工程师!

登录查看更多
7

相关内容

文本分类(Text Classification)任务是根据给定文档的内容或主题,自动分配预先定义的类别标签。
【2020新书】实战R语言4,323页pdf
专知会员服务
100+阅读 · 2020年7月1日
【实用书】学习用Python编写代码进行数据分析,103页pdf
专知会员服务
194+阅读 · 2020年6月29日
【实用书】Python机器学习Scikit-Learn应用指南,247页pdf
专知会员服务
266+阅读 · 2020年6月10日
干净的数据:数据清洗入门与实践,204页pdf
专知会员服务
161+阅读 · 2020年5月14日
【2020新书】数据科学:十大Python项目,247页pdf
专知会员服务
213+阅读 · 2020年2月21日
Transformer文本分类代码
专知会员服务
116+阅读 · 2020年2月3日
Github项目推荐 | PyTorch文本分类教程
AI研习社
7+阅读 · 2019年6月7日
手把手教你用Python库Keras做预测(附代码)
数据派THU
14+阅读 · 2018年5月30日
教程 | 用TensorFlow Estimator实现文本分类
机器之心
4+阅读 · 2018年5月17日
教程 | 如何通过Scikit-Learn实现多类别文本分类?
机器学习自动文本分类
AI前线
23+阅读 · 2018年2月4日
Tensorflow 文本分类-Python深度学习
Python程序员
12+阅读 · 2017年11月22日
A Survey on Bayesian Deep Learning
Arxiv
63+阅读 · 2020年7月2日
Arxiv
38+阅读 · 2020年3月10日
Arxiv
7+阅读 · 2019年5月31日
Object Detection in 20 Years: A Survey
Arxiv
48+阅读 · 2019年5月13日
Arxiv
7+阅读 · 2018年6月1日
VIP会员
相关VIP内容
【2020新书】实战R语言4,323页pdf
专知会员服务
100+阅读 · 2020年7月1日
【实用书】学习用Python编写代码进行数据分析,103页pdf
专知会员服务
194+阅读 · 2020年6月29日
【实用书】Python机器学习Scikit-Learn应用指南,247页pdf
专知会员服务
266+阅读 · 2020年6月10日
干净的数据:数据清洗入门与实践,204页pdf
专知会员服务
161+阅读 · 2020年5月14日
【2020新书】数据科学:十大Python项目,247页pdf
专知会员服务
213+阅读 · 2020年2月21日
Transformer文本分类代码
专知会员服务
116+阅读 · 2020年2月3日
相关资讯
Github项目推荐 | PyTorch文本分类教程
AI研习社
7+阅读 · 2019年6月7日
手把手教你用Python库Keras做预测(附代码)
数据派THU
14+阅读 · 2018年5月30日
教程 | 用TensorFlow Estimator实现文本分类
机器之心
4+阅读 · 2018年5月17日
教程 | 如何通过Scikit-Learn实现多类别文本分类?
机器学习自动文本分类
AI前线
23+阅读 · 2018年2月4日
Tensorflow 文本分类-Python深度学习
Python程序员
12+阅读 · 2017年11月22日
Top
微信扫码咨询专知VIP会员