【干货】文本分类算法集锦,从小白到大牛,附代码注释和训练语料

2020 年 6 月 15 日 AINLP

本文整理自笔者年前在知乎上的一个回答:

大数据舆情情感分析,如何提取情感并使用什么样的工具?(贴情感标签)

1、我将数据筛选预处理好,然后分好词。
2、是不是接下来应该与与情感词汇本库对照,生成结合词频和情感词库的情感关键词库。
3、将信息与情感关键词库进行比对,对信息加以情感标记。
4、我想问实现前三步,需要什么工具的什么功能呢?据说用spss和武汉大学的ROST WordParser。该如何使用呢?

https://www.zhihu.com/question/31471793/answer/542401478


情感分析说白了,就是一个文本(多)分类问题,我看一般的情感分析都是2类(正负面)或者3类(正面、中性和负面)。其实,这种粒度是远远不够的。本着“Talk is cheap, show you my code”的原则,我不扯咸淡,直接上代码给出解决方案(而且是经过真实文本数据验证了的:我用一个14个分类的例子来讲讲各类文本分类模型---从传统的机器学习文本分类模型到现今流行的基于深度学习的文本分类模型,最后给出一个超NB的模型集成,效果最优。

**************************************前方高能****************************************

在这篇文章中,笔者将讨论自然语言处理中文本分类的相关问题,将使用一个复旦大学开源的文本分类语料库,对文本分类的一般流程和常用模型进行探讨。

首先,笔者会创建一个非常基础的初始模型,然后基于此使用不同的特征进行改进。

接下来,笔者还将讨论如何使用深度神经网络来解决NLP问题,并在文章末尾以一般关于集成的一些想法结束这篇文章。

本文覆盖的NLP方法有:

  • TF-IDF

  • Count Features

  • Logistic Regression

  • Naive Bayes

  • SVM

  • Xgboost

  • Grid Search

  • Word Vectors

  • Dense Network

  • LSTM/BiLSTM

  • GRU

  • Ensembling

NOTE: 笔者并不能保证你学习了本文之后就能在NLP相关比赛中获得非常高的分数。但是,如果你正确地“吃透”它,并根据实际情况适时作出一些调整,你可以获得非常高的分数。

废话不多说,先导入一些我将要使用的重要python模块。

   
   
     
import pandas as pdimport numpy as npimport xgboost as xgbfrom tqdm import tqdmfrom sklearn.svm import SVCfrom keras.models import Sequentialfrom keras.layers.recurrent import LSTM, GRUfrom keras.layers.core import Dense, Activation, Dropoutfrom keras.layers.embeddings import Embeddingfrom keras.layers.normalization import BatchNormalizationfrom keras.utils import np_utilsfrom sklearn import preprocessing, decomposition, model_selection, metrics, pipelinefrom sklearn.model_selection import GridSearchCVfrom sklearn.feature_extraction.text import TfidfVectorizer, CountVectorizerfrom sklearn.decomposition import TruncatedSVDfrom sklearn.linear_model import LogisticRegressionfrom sklearn.model_selection import train_test_splitfrom sklearn.naive_bayes import MultinomialNBfrom keras.layers import GlobalMaxPooling1D, Conv1D, MaxPooling1D, Flatten, Bidirectional, SpatialDropout1Dfrom keras.preprocessing import sequence, textfrom keras.callbacks import EarlyStoppingfrom nltk import word_tokenize

接下来,加载并检视数据集。

   
   
     
data=pd.read_excel('/home/Scottish_Fold_Cats/Chinese_NLP6474/复旦大学中文文本分类语料.xlsx','sheet1')data.head()

   
   
     
data.info()

对文本数据的正文字段进行分词,这里是在Linux上运行的,可以开启jieba的并行分词模式,分词速度是平常的好多倍,具体看你的CPU核心数。

   
   
     
import jiebajieba.enable_parallel(4) #并行分词开启data['文本分词'] = data['正文'].apply(lambda i:jieba.cut(i) )data['文本分词'] =[' '.join(i) for i in data['文本分词']]


值得注意的是,分词是任何中文文本分类的起点,分词的质量会直接影响到后面的模型效果。在这里,作为演示,笔者有点偷懒,其实你还可以:

  • 设置可靠的自定义词典,以便分词更精准;

  • 采用分词效果更好的分词器,如pyltp、THULAC、Hanlp等;

  • 编写预处理类,就像下面要谈到的数字特征归一化,去掉文本中的#@¥%……&等等。

   
   
     
data.分类.unique()

   
   
     
data.head()

这是一个典型的文本多分类问题,需要将文本划分到给定的14个主题上。

针对该问题,笔者采用了kaggle上通用的 Multi-Class Log-Loss 作为评测指标(Evaluation Metric)。

   
   
     
def multiclass_logloss(actual, predicted, eps=1e-15):    """对数损失度量(Logarithmic Loss  Metric)的多分类版本。    :param actual: 包含actual target classes的数组    :param predicted: 分类预测结果矩阵, 每个类别都有一个概率    """    # Convert 'actual' to a binary array if it's not already:    if len(actual.shape) == 1:        actual2 = np.zeros((actual.shape[0], predicted.shape[1]))        for i, val in enumerate(actual):            actual2[i, val] = 1        actual = actual2
clip = np.clip(predicted, eps, 1 - eps) rows = actual.shape[0] vsota = np.sum(actual * np.log(clip)) return -1.0 / rows * vsota

接下来用scikit-learn中的Label Encoder将文本标签(Text Label)转化为数字(Integer)。

   
   
     
lbl_enc = preprocessing.LabelEncoder()y = lbl_enc.fit_transform(data.分类.values)

在进一步研究之前,我们必须将数据分成训练和验证集。我们可以使用scikit-learn的model_selection模块中的train_test_split来完成它。

   
   
     
xtrain, xvalid, ytrain, yvalid = train_test_split(data.文本分词.values, y,                                                  stratify=y,                                                  random_state=42,                                                  test_size=0.1, shuffle=True)
print (xtrain.shape)print (xvalid.shape)

(8324,) (925,)

  • 构建基础模型(Basic Models)

让我们先创建一个非常基础的模型。

这个非常基础的模型(very first model)基于 TF-IDF (Term Frequency - Inverse Document Frequency)+逻辑斯底回归(Logistic Regression)。

笔者将scikit-learn中的TfidfVectorizer类稍稍改写下,以便将文本中的数字特征统一表示成"#NUMBER",达到一定的降噪效果。

   
   
     
def number_normalizer(tokens):    """ 将所有数字标记映射为一个占位符(Placeholder)。对于许多实际应用场景来说,以数字开头的tokens不是很有用,    但这样tokens的存在也有一定相关性。通过将所有数字都表示成同一个符号,可以达到降维的目的。"""     return ("#NUMBER" if token[0].isdigit() else token for token in tokens)  class NumberNormalizingVectorizer(TfidfVectorizer):       def build_tokenizer(self):             tokenize = super(NumberNormalizingVectorizer, self).build_tokenizer()            return lambda doc: list(number_normalizer(tokenize(doc)))

利用刚才创建的Number Normalizing Vectorizer类来提取文本特征,注意里面各类参数的含义,自己去sklearn官方网站找教程看。

   
   
     
stwlist=[line.strip() for line in open('/home/gaochangkuan/input/stopwords7085/停用词汇总.txt','r',encoding='utf-8').readlines()]tfv = NumberNormalizingVectorizer(min_df=3,                                  max_df=0.5,                                  max_features=None,                                  ngram_range=(1, 2),                                  use_idf=True,                                  smooth_idf=True,                                  stop_words = stwlist)

使用TF-IDF来拟合训练集和测试集(半监督学习):

   
   
     
tfv.fit(list(xtrain) + list(xvalid))xtrain_tfv =  tfv.transform(xtrain)xvalid_tfv = tfv.transform(xvalid)

利用提取的TFIDF特征来拟合一个简单的Logistic Regression。

   
   
     
clf = LogisticRegression(C=1.0,solver='lbfgs',multi_class='multinomial')clf.fit(xtrain_tfv, ytrain)predictions = clf.predict_proba(xvalid_tfv)
print ("logloss: %0.3f " % multiclass_logloss(yvalid, predictions))

logloss: 0.627

那么,做完第一个基础模型后,得出的 multiclass logloss 是0.627。

但笔者比较“贪婪”,想要获得更好的分数。基于相同模型采用不同的特征,再看看结果如何。

我们也可以使用词汇计数(Word Counts)作为功能,而不是使用TF-IDF。这可以使用scikit-learn中的类 - CountVectorizer轻松完成。

   
   
     
ctv = CountVectorizer(min_df=3,                      max_df=0.5,                      ngram_range=(1,2),                      stop_words = stwlist)

使用Count Vectorizer来拟合训练集和测试集(半监督学习)。

   
   
     
ctv.fit(list(xtrain) + list(xvalid))xtrain_ctv =  ctv.transform(xtrain)xvalid_ctv = ctv.transform(xvalid)

利用提取的word counts特征来fit一个简单的Logistic Regression :

   
   
     
clf = LogisticRegression(C=1.0,solver='lbfgs',multi_class='multinomial')clf.fit(xtrain_ctv, ytrain)predictions = clf.predict_proba(xvalid_ctv)
print ("logloss: %0.3f " % multiclass_logloss(yvalid, predictions))

logloss: 0.732  

比之前者,效果略差。。。

接下来,让我们尝试一个非常简单的模型- Naive Bayes(朴素贝叶斯),它在以前是非常有名的。让我们看看当我们在这个数据集上使用朴素贝叶时会发生什么:

利用已提取的TFIDF特征来拟合Naive Bayes:

   
   
     
clf = MultinomialNB()clf.fit(xtrain_tfv, ytrain)
predictions = clf.predict_proba(xvalid_tfv)print ("logloss: %0.3f " % multiclass_logloss(yvalid, predictions))

logloss: 0.982  

效果更差。。。。。。朴素贝叶斯模型在本数据集上的表现不怎么样!但基于词汇计数的逻辑回归的效果仍然很棒!当我们在基于词汇计数的基础上使用朴素贝叶斯模型时会发生什么?

利用提取的word counts特征来拟合Naive Bayes:

   
   
     
clf = MultinomialNB()clf.fit(xtrain_ctv, ytrain)predictions = clf.predict_proba(xvalid_ctv)print ("logloss: %0.3f " % multiclass_logloss(yvalid, predictions))

logloss: 3.780 

这次效果更不咋样。传统文本分类算法里还有一个名叫支持向量机(SVM)。SVM曾是很多机器学习爱好者的“最爱”。

因此,我们必须在此数据集上尝试SVM。由于SVM需要花费大量时间,因此在应用SVM之前,我们将使用奇异值分解(Singular Value Decomposition )来减少TF-IDF中的特征数量。同时,在使用SVM之前,我们还需要将数据标准化(Standardize Data )

使用SVD进行降维,components设为120,对于SVM来说,SVD的components值的合适调整区间一般为120~200 。

   
   
     
svd = decomposition.TruncatedSVD(n_components=120)svd.fit(xtrain_tfv)xtrain_svd = svd.transform(xtrain_tfv)xvalid_svd = svd.transform(xvalid_tfv)

对从SVD获得的数据进行特征缩放:

   
   
     
scl = preprocessing.StandardScaler()scl.fit(xtrain_svd)xtrain_svd_scl = scl.transform(xtrain_svd)xvalid_svd_scl = scl.transform(xvalid_svd)

现在是时候应用SVM模型进行文本分类了。

在运行以下单元格后,你可以去喝杯茶了---因为这将耗费大量的时间...

   
   
     
clf = SVC(C=1.0, probability=True) # since we need probabilitiesclf.fit(xtrain_svd_scl, ytrain)predictions = clf.predict_proba(xvalid_svd_scl)
print ("logloss: %0.3f " % multiclass_logloss(yvalid, predictions))

logloss: 0.347 

看起来,SVM在这些数据上表现还行!在采用更高级的算法前,让我们再试试Kaggle上应用最流行的算法:xgboost!


基于tf-idf特征,使用xgboost:

   
   
     
clf = xgb.XGBClassifier(max_depth=7, n_estimators=200, colsample_bytree=0.8,                        subsample=0.8, nthread=10, learning_rate=0.1)clf.fit(xtrain_tfv.tocsc(), ytrain)predictions = clf.predict_proba(xvalid_tfv.tocsc())
print ("logloss: %0.3f " % multiclass_logloss(yvalid, predictions))

logloss: 0.182

效果不错,比SVM还牛呢!

基于word counts特征,使用xgboost:

   
   
     
clf = xgb.XGBClassifier(max_depth=7, n_estimators=200, colsample_bytree=0.8,                        subsample=0.8, nthread=10, learning_rate=0.1)clf.fit(xtrain_ctv.tocsc(), ytrain)predictions = clf.predict_proba(xvalid_ctv.tocsc())
print ("logloss: %0.3f " % multiclass_logloss(yvalid, predictions))

logloss: 0.154  

基于tf-idf的svd特征,使用xgboost:

   
   
     
clf = xgb.XGBClassifier(max_depth=7, n_estimators=200, colsample_bytree=0.8,                        subsample=0.8, nthread=10, learning_rate=0.1)clf.fit(xtrain_svd, ytrain)predictions = clf.predict_proba(xvalid_svd)
print ("logloss: %0.3f " % multiclass_logloss(yvalid, predictions))

logloss: 0.394

再对经过数据标准化(Scaling)的tf-idf-svd特征使用xgboost:

   
   
     
clf = xgb.XGBClassifier(nthread=10)clf.fit(xtrain_svd_scl, ytrain)predictions = clf.predict_proba(xvalid_svd_scl)
print ("logloss: %0.3f " % multiclass_logloss(yvalid, predictions))

logloss: 0.373

XGBoost的效果似乎挺棒的!但我觉得还可以进一步优化,因为我还没有做过任何超参数优化。我很懒,所以我会告诉你该怎么做,你可以自己做!)。这将在下一节中讨论。

  • 网格搜索(Grid Search)

网格搜索是一种超参数优化的技巧。如果知道这个技巧,你可以通过获取最优的参数组合来产生良好的文本分类效果。

在本节中,我将讨论使用基于逻辑回归模型的网格搜索。

在开始网格搜索之前,我们需要创建一个评分函数,这可以通过scikit-learn的make_scorer函数完成的。

   
   
     
mll_scorer = metrics.make_scorer(multiclass_logloss,                       greater_is_better=False, needs_proba=True)

接下来,我们需要一个pipeline。为了演示,我将使用由SVD(进行特征缩放)和逻辑回归模型组成的pipeline。

进行SVD初始化:

   
   
     
svd = TruncatedSVD()
# Standard Scaler初始化scl = preprocessing.StandardScaler()
# 再一次使用Logistic Regressionlr_model = LogisticRegression()
# 创建pipelineclf = pipeline.Pipeline([('svd', svd), ('scl', scl), ('lr', lr_model)])

接下来我们需要一个参数网格(A Grid of Parameters):

   
   
     
param_grid = {'svd__n_components' : [120, 180],              'lr__C': [0.1, 1.0, 10],              'lr__penalty': ['l1', 'l2']}

因此,对于SVD,我们评估120和180个分量(Components),对于逻辑回归,我们评估三个不同的学习率C值,其中惩罚函数为l1和l2。现在,我们可以开始对这些参数进行网格搜索咯。

网格搜索模型(Grid Search Model)初始化:

   
   
     
model = GridSearchCV(estimator=clf, param_grid=param_grid, scoring=mll_scorer,                                 verbose=10, n_jobs=-1, iid=True, refit=True, cv=2)

拟合网格搜索模型:

   
   
     
model.fit(xtrain_tfv, ytrain)  #为了减少计算量,这里我们仅使用xtrainprint("Best score: %0.3f" % model.best_score_)print("Best parameters set:")best_parameters = model.best_estimator_.get_params()for param_name in sorted(param_grid.keys()):    print("\t%s: %r" % (param_name, best_parameters[param_name]))

logloss: 0.377

   
   
     
nb_model = MultinomialNB()

创建pipeline:

   
   
     
clf = pipeline.Pipeline([('nb', nb_model)])

搜索参数设置:

   
   
     
param_grid = {'nb__alpha': [0.001, 0.01, 0.1, 1, 10, 100]}

网格搜索模型(Grid Search Model)初始化:

   
   
     
model = GridSearchCV(estimator=clf, param_grid=param_grid, scoring=mll_scorer,verbose=10, n_jobs=-1, iid=True, refit=True, cv=2)

拟合网格搜索模型:

   
   
     
model.fit(xtrain_tfv, ytrain)  # 为了减少计算量,这里我们仅使用xtrainprint("Best score: %0.3f" % model.best_score_)print("Best parameters set:")best_parameters = model.best_estimator_.get_params()for param_name in sorted(param_grid.keys()):    print("\t%s: %r" % (param_name, best_parameters[param_name]))

自从2013年谷歌的Tomas Mikolov团队发明了word2vec以后,word2vec就成为了处理NLP问题的标配。word2vec训练向量空间模型的速度比以往的方法都快。许多新兴的词嵌入基于人工神经网络,而不是过去的n元语法模型和非监督式学习。

接下来,让我们来深入研究一下如何使用word2vec来进行NLP文本分类。

  • 基于word2vec的词嵌入

在不深入细节的情况下,笔者将解释如何创建语句向量(Sentence Vectors),以及如何基于它们在其上创建机器学习模型。鄙人是GloVe向量,word2vec和fasttext的粉丝(但平时还是用word2vec较多)。在这篇文章中,笔者使用的文本分类模型是基于Word2vec词向量模型(100维)。


训练word2vec词向量:

   
   
     
import gensimmodel = gensim.models.Word2Vec(X, size=100)

X是经分词后的文本构成的list,也就是tokens的列表的列表。注意,Word2Vec还有3个值得关注的参数,iter是模型训练时迭代的次数,假如参与训练的文本量较少,就需要把这个参数调大一些;sg是模型训练算法的类别,1 代表 skip-gram,;0代表 CBOW;

window控制窗口,它指当前词和预测词之间的最大距离,如果设得较小,那么模型学习到的是词汇间的功能性特征(词性相异),如果设置得较大,会学习到词汇之间的相似性特征(词性相同)的大小,假如语料够多,笔者一般会设置得大一些,8~10。

   
   
     
embeddings_index = dict(zip(model.wv.index2word, model.wv.syn0))
print('Found %s word vectors.' % len(embeddings_index))

Found 56,000word vectors.

该函数会将语句转化为一个标准化的向量(Normalized Vector)

   
   
     
def sent2vec(s):    words = str(s).lower()    words = word_tokenize(words)    words = [w for w in words if not w in stop_words]    words = [w for w in words if w.isalpha()]    M = []    for w in words:        try:            M.append(embeddings_index[w])        except:            continue    M = np.array(M)    v = M.sum(axis=0)    if type(v) != np.ndarray:        return np.zeros(300)    return v / np.sqrt((v ** 2).sum())

对训练集和验证集使用上述函数,进行文本向量化处理:

   
   
     
xtrain_w2v  = [sent2vec(x) for x in tqdm(xtrain)]xvalid_w2v  = [sent2vec(x) for x in tqdm(xvalid)]
xtrain_w2v = np.array(xtrain_w2v)xvalid_w2v = np.array(xvalid_w2v)

让我们看看xgboost在Glove词向量特征的表现如何 - 基于word2vec特征使用XGB文本分类器:

   
   
     
clf = xgb.XGBClassifier(nthread=10, silent=False)clf.fit(xtrain_glove, ytrain)predictions = clf.predict_proba(xvalid_w2v)
print ("logloss: %0.3f " % multiclass_logloss(yvalid, predictions))

logloss: 0.389

   
   
     
clf = xgb.XGBClassifier(max_depth=7, n_estimators=200, colsample_bytree=0.8,                        subsample=0.8, nthread=10, learning_rate=0.1, silent=False)clf.fit(xtrain_w2v, ytrain)predictions = clf.predict_proba(xvalid_w2v)
print ("logloss: %0.3f " % multiclass_logloss(yvalid, predictions))

logloss: 0.122

我们可以看到,简单的对参数进行微调,就提高基于word2vec词向量特征的xgboost得分!相信我,你还可以从中继续“压榨”出更优秀的表现!

  • 深度学习(Deep Learning)

这是一个深度学习大行其道的时代!它的存在使大家摆脱了文本特征手动抽取的麻烦,文本分类问题也在它的指引下获得突飞猛进的发展!

在这里,我们将在word2vec功能上训练LSTM和简单的全连接网络(Dense Network)。让我们先从全连接网络开始~

在使用神经网络前,先对数据进行缩放:

   
   
     
scl = preprocessing.StandardScaler()xtrain_w2v_scl = scl.fit_transform(xtrain_w2v)xvalid_w2v_scl = scl.transform(xvalid_w2v)

对标签进行binarize处理:

   
   
     
ytrain_enc = np_utils.to_categorical(ytrain)yvalid_enc = np_utils.to_categorical(yvalid)

创建1个3层的序列神经网络(Sequential Neural Net):

   
   
     
model = Sequential()
model.add(Dense(300, input_dim=300, activation='relu'))model.add(Dropout(0.2))model.add(BatchNormalization())
model.add(Dense(300, activation='relu'))model.add(Dropout(0.3))model.add(BatchNormalization())
model.add(Dense(14))model.add(Activation('softmax'))

对模型进行编译和拟合:

   
   
     
model.compile(loss='categorical_crossentropy', optimizer='adam')
model.fit(xtrain_w2v_scl, y=ytrain_enc, batch_size=64, epochs=5, verbose=1, validation_data=(xvalid_v_scl, yvalid_enc))

logloss: 0.422  

你需要不断的对神经网络的参数进行调优,添加更多层,增加Dropout以获得更好的结果。在这里,笔者只是简单的实现下,追求速度而不是最终效果,并且它比没有任何优化的xgboost取得了更好的结果。

为了更进一步,笔者使用LSTM,我们需要对文本数据进行Tokenize:

   
   
     
token = text.Tokenizer(num_words=None)max_len = 70
token.fit_on_texts(list(xtrain) + list(xvalid))xtrain_seq = token.texts_to_sequences(xtrain)xvalid_seq = token.texts_to_sequences(xvalid)

对文本序列进行zero填充:

   
   
     
xtrain_pad = sequence.pad_sequences(xtrain_seq, maxlen=max_len)xvalid_pad = sequence.pad_sequences(xvalid_seq, maxlen=max_len)
word_index = token.word_index

基于已有的数据集中的词汇创建一个词嵌入矩阵(Embedding Matrix):

   
   
     
embedding_matrix = np.zeros((len(word_index) + 1, 100))for word, i in tqdm(word_index.items()):    embedding_vector = embeddings_index.get(word)    if embedding_vector is not None:        embedding_matrix[i] = embedding_vector

基于前面训练的Word2vec词向量,使用1个两层的LSTM模型:

   
   
     
model = Sequential()model.add(Embedding(len(word_index) + 1,                     100,                     weights=[embedding_matrix],                     input_length=max_len,                     trainable=False))model.add(SpatialDropout1D(0.3))model.add(LSTM(100, dropout=0.3, recurrent_dropout=0.3))
model.add(Dense(1024, activation='relu'))model.add(Dropout(0.8))
model.add(Dense(1024, activation='relu'))model.add(Dropout(0.8))
model.add(Dense(14))model.add(Activation('softmax'))model.compile(loss='categorical_crossentropy', optimizer='adam')
model.fit(xtrain_pad, y=ytrain_enc, batch_size=512, epochs=100, verbose=1, validation_data=(xvalid_pad, yvalid_enc))

logloss: 0.312

现在,我们看到分数小于0.5。我跑了很多个epochs都没有获得最优的结果,但我们可以使用early stopping来停止在最佳的迭代节点。

那我们该如何使用early stopping?

好吧,其实很简单的。让我们再次compile模型(基于前面训练的Word2vec词向量,使用1个两层的LSTM模型):

   
   
     
model = Sequential()model.add(Embedding(len(word_index) + 1,                     100,                     weights=[embedding_matrix],                     input_length=max_len,                     trainable=False))model.add(SpatialDropout1D(0.3))model.add(LSTM(100, dropout=0.3, recurrent_dropout=0.3))
model.add(Dense(1024, activation='relu'))model.add(Dropout(0.8))
model.add(Dense(1024, activation='relu'))model.add(Dropout(0.8))
model.add(Dense(14))model.add(Activation('softmax'))model.compile(loss='categorical_crossentropy', optimizer='adam')

在模型拟合时,使用early stopping这个回调函数(Callback Function):

   
   
     
earlystop = EarlyStopping(monitor='val_loss', min_delta=0, patience=3, verbose=0, mode='auto')model.fit(xtrain_pad, y=ytrain_enc, batch_size=512, epochs=100,          verbose=1, validation_data=(xvalid_pad, yvalid_enc), callbacks=[earlystop])

logloss: 0.487  

一个可能的问题是:为什么我会使用这么多的dropout?嗯,fit模型时,没有或很少的dropout,你会出现过拟合(Overfit):)

让我们看看双向长短时记忆(Bi-Directional LSTM)是否可以给我们带来更好的结果。对于Keras来说,使用Bilstm小菜一碟:)

基于前面训练的Word2vec词向量,构建1个2层的Bidirectional LSTM :

   
   
     
model = Sequential()model.add(Embedding(len(word_index) + 1,                     100,                     weights=[embedding_matrix],                     input_length=max_len,                     trainable=False))model.add(SpatialDropout1D(0.3))model.add(Bidirectional(LSTM(100, dropout=0.3, recurrent_dropout=0.3)))
model.add(Dense(1024, activation='relu'))model.add(Dropout(0.8))
model.add(Dense(1024, activation='relu'))model.add(Dropout(0.8))
model.add(Dense(14))model.add(Activation('softmax'))model.compile(loss='categorical_crossentropy', optimizer='adam')

在模型拟合时,使用early stopping这个回调函数(Callback Function):

   
   
     
earlystop = EarlyStopping(monitor='val_loss', min_delta=0, patience=3, verbose=0, mode='auto')model.fit(xtrain_pad, y=ytrain_enc, batch_size=512, epochs=100,          verbose=1, validation_data=(xvalid_pad, yvalid_enc), callbacks=[earlystop])

logloss: 0.119

很接近最优结果了!让我们尝试两层的GRU:

   
   
     
# 基于前面训练的Word2vec词向量,构建1个2层的GRU模型model = Sequential()model.add(Embedding(len(word_index) + 1,                     100,                     weights=[embedding_matrix],                     input_length=max_len,                     trainable=False))model.add(SpatialDropout1D(0.3))model.add(GRU(100, dropout=0.3, recurrent_dropout=0.3, return_sequences=True))model.add(GRU(100, dropout=0.3, recurrent_dropout=0.3))
model.add(Dense(1024, activation='relu'))model.add(Dropout(0.8))
model.add(Dense(1024, activation='relu'))model.add(Dropout(0.8))
model.add(Dense(14))model.add(Activation('softmax'))model.compile(loss='categorical_crossentropy', optimizer='adam')

模型拟合时,使用early stopping这个回调函数(Callback Function)。

   
   
     
earlystop = EarlyStopping(monitor='val_loss', min_delta=0, patience=3, verbose=0, mode='auto')model.fit(xtrain_pad, y=ytrain_enc, batch_size=512, epochs=100,          verbose=1, validation_data=(xvalid_pad, yvalid_enc), callbacks=[earlystop])

logloss: 0.107

太好了!比我们以前的模型好多了!持续优化,模型的性能将不断提高。

在文本分类的比赛中,想要获得最高分,你应该拥有1个合成的模型。让我们来看看吧!

模型集成(Model Ensembling)

集多个文本分类模型之长,合成一个很棒的分类融合模型。

   
   
     
#创建一个Ensembling主类,具体使用方法见下一个cell
import numpy as np
from sklearn.metrics import roc_auc_score
from sklearn.preprocessing import LabelEncoder
from sklearn.model_selection import StratifiedKFold, KFold
import pandas as pd
import os
import sys
import logging

logging.basicConfig(
level=logging.DEBUG,
format="[%(asctime)s] %(levelname)s %(message)s",
datefmt="%H:%M:%S", stream=sys.stdout)
logger = logging.getLogger(__name__)

编写主类:

   
   
     
      
      
        
class Ensembler(object):    def __init__(self, model_dict, num_folds=3, task_type='classification', optimize=roc_auc_score,                 lower_is_better=False, save_path=None):          """        Ensembler init function        :param model_dict: 模型字典        :param num_folds: ensembling所用的fold数量        :param task_type: 分类(classification) 还是回归(regression)        :param optimize: 优化函数,比如 AUC, logloss, F1等,必须有2个函数,即y_test 和 y_pred        :param lower_is_better: 优化函数(Optimization Function)的值越低越好还是越高越好        :param save_path: 模型保存路径        """
self.model_dict = model_dict self.levels = len(self.model_dict) self.num_folds = num_folds self.task_type = task_type self.optimize = optimize self.lower_is_better = lower_is_better self.save_path = save_path
self.training_data = None self.test_data = None self.y = None self.lbl_enc = None self.y_enc = None self.train_prediction_dict = None self.test_prediction_dict = None self.num_classes = None
def fit(self, training_data, y, lentrain): """ :param training_data: 二维表格形式的训练数据 :param y: 二进制的, 多分类或回归 :return: 用于预测的模型链(Chain of Models)
"""
self.training_data = training_data self.y = y
if self.task_type == 'classification': self.num_classes = len(np.unique(self.y))logger.info("Found %d classes", self.num_classes) self.lbl_enc = LabelEncoder() self.y_enc = self.lbl_enc.fit_transform(self.y) kf = StratifiedKFold(n_splits=self.num_folds) train_prediction_shape = (lentrain, self.num_classes) else: self.num_classes = -1 self.y_enc = self.y kf = KFold(n_splits=self.num_folds) train_prediction_shape = (lentrain, 1)
self.train_prediction_dict = {} for level in range(self.levels): self.train_prediction_dict[level] = np.zeros((train_prediction_shape[0], train_prediction_shape[1] * len(self.model_dict[level])))
for level in range(self.levels):
if level == 0: temp_train = self.training_data else: temp_train = self.train_prediction_dict[level - 1]
for model_num, model in enumerate(self.model_dict[level]): validation_scores = [] foldnum = 1 for train_index, valid_index in kf.split(self.train_prediction_dict[0], self.y_enc):logger.info("Training Level %d Fold # %d. Model # %d", level, foldnum, model_num)
if level != 0: l_training_data = temp_train[train_index] l_validation_data = temp_train[valid_index]model.fit(l_training_data, self.y_enc[train_index]) else: l0_training_data = temp_train[0][model_num] if type(l0_training_data) == list: l_training_data = [x[train_index] for x in l0_training_data] l_validation_data = [x[valid_index] for x in l0_training_data] else: l_training_data = l0_training_data[train_index] l_validation_data = l0_training_data[valid_index]model.fit(l_training_data, self.y_enc[train_index])
logger.info("Predicting Level %d. Fold # %d. Model # %d", level, foldnum, model_num)
if self.task_type == 'classification': temp_train_predictions = model.predict_proba(l_validation_data) self.train_prediction_dict[level][valid_index, (model_num * self.num_classes):(model_num * self.num_classes) + self.num_classes] = temp_train_predictions
else: temp_train_predictions = model.predict(l_validation_data) self.train_prediction_dict[level][valid_index, model_num] = temp_train_predictions validation_score = self.optimize(self.y_enc[valid_index], temp_train_predictions) validation_scores.append(validation_score)logger.info("Level %d. Fold # %d. Model # %d. Validation Score = %f", level, foldnum, model_num, validation_score) foldnum += 1 avg_score = np.mean(validation_scores) std_score = np.std(validation_scores)logger.info("Level %d. Model # %d. Mean Score = %f. Std Dev = %f", level, model_num, avg_score, std_score)
logger.info("Saving predictions for level # %d", level) train_predictions_df = pd.DataFrame(self.train_prediction_dict[level]) train_predictions_df.to_csv(os.path.join(self.save_path, "train_predictions_level_" + str(level) + ".csv"), index=False, header=None)
return self.train_prediction_dict
def predict(self, test_data, lentest): self.test_data = test_data if self.task_type == 'classification': test_prediction_shape = (lentest, self.num_classes) else: test_prediction_shape = (lentest, 1)
self.test_prediction_dict = {} for level in range(self.levels): self.test_prediction_dict[level] = np.zeros((test_prediction_shape[0], test_prediction_shape[1] * len(self.model_dict[level]))) self.test_data = test_data for level in range(self.levels): if level == 0: temp_train = self.training_data temp_test = self.test_data else: temp_train = self.train_prediction_dict[level - 1] temp_test = self.test_prediction_dict[level - 1]
for model_num, model in enumerate(self.model_dict[level]):
logger.info("Training Fulldata Level %d. Model # %d", level, model_num) if level == 0:model.fit(temp_train[0][model_num], self.y_enc) else:model.fit(temp_train, self.y_enc)
logger.info("Predicting Test Level %d. Model # %d", level, model_num)
if self.task_type == 'classification': if level == 0: temp_test_predictions = model.predict_proba(temp_test[0][model_num]) else: temp_test_predictions = model.predict_proba(temp_test) self.test_prediction_dict[level][:, (model_num * self.num_classes): (model_num * self.num_classes) + self.num_classes] = temp_test_predictions
else: if level == 0: temp_test_predictions = model.predict(temp_test[0][model_num]) else: temp_test_predictions = model.predict(temp_test) self.test_prediction_dict[level][:, model_num] = temp_test_predictions
test_predictions_df = pd.DataFrame(self.test_prediction_dict[level]) test_predictions_df.to_csv(os.path.join(self.save_path, "test_predictions_level_" + str(level) + ".csv"), index=False, header=None)
return self.test_prediction_dict
# specify the data to be used for every level of ensembling:train_data_dict = {0: [xtrain_tfv, xtrain_ctv, xtrain_tfv, xtrain_ctv], 1: [xtrain_glove]}test_data_dict = {0: [xvalid_tfv, xvalid_ctv, xvalid_tfv, xvalid_ctv], 1: [xvalid_glove]}
model_dict = {0: [LogisticRegression(), LogisticRegression(), MultinomialNB(alpha=0.1), MultinomialNB()],
1: [xgb.XGBClassifier(silent=True, n_estimators=120, max_depth=7)]}

为每个level的集成指定使用数据:

      
      
        
ens = Ensembler(model_dict=model_dict, num_folds=3, task_type='classification',                optimize=multiclass_logloss, lower_is_better=True, save_path='')ens.fit(train_data_dict, ytrain, lentrain=xtrain_w2v.shape[0])preds = ens.predict(test_data_dict, lentest=xvalid_w2v.shape[0])

检视损失率:

   
   
     
multiclass_logloss(yvalid, preds[1])

logloss: 0.09


因此,我们看到集成模型在很大程度上提高了分数!但要注意,集成模型只有在参与集成的模型势均力敌 - 表现都不差的情况下才能取得良好的效果,不然会出现拖后腿的情况,导致模型的整体性能还不如单个模型的要好~


由于本文只是一个教程,更多的技术细节还没有深入下去,对此,你可以利用空余时间多多优化下,也可以尝试其他方法,比如:

  • 基于CNN的文本分类,达到的效果类似于N-gram,效率奇高

  • 基于attention机制的BiLSTM、Hierarchical LSTM等

  • 基于ELMO、BERT等预训练模型来提取高质量的文本特征,再喂给分类器

...


以上就是笔者的分享,希望大家喜欢,也希望大家踊跃留言,发表看法和意见,我会持续更新的。

Note:需要训练语料的朋友请关注我的公众号【Social Listening与文本挖掘】,在后台回复 “语料”即可得到训练语料的下载链接。



笔者在和鲸(科赛)上的notebook附加资料 :

  1. 基于attention的情感分析,https://www.kesci.com/home/project/5c2f055881e912002b833620

  2. 【NLP文本表示】如何科学的在Tensorflow里使用词嵌入 ,https://www.kesci.com/home/project/5b6acf1d9889570010c88af1

  3. 基于Position_Embedding和 Attention机制进行文本分类,https://www.kesci.com/home/project/5c0d2a65864a0d002b5428fa

  4. 【BERT-至今最强大的NLP大杀器!】基于BERT的文本分类,https://www.kesci.com/home/project/5bfaa482954d6e001067396d

  5. NLP分析利器】利用Foolnltk进行自然语言处理,https://www.kesci.com/home/project/5b863f1131902f000f64adce

  6. 文本挖掘】基于DBSCAN的文本聚类,https://www.kesci.com/home/project/5c19f99de17d84002c658466   


推荐阅读

这个NLP工具,玩得根本停不下来

征稿启示| 200元稿费+5000DBC(价值20个小时GPU算力)

文本自动摘要任务的“不完全”心得总结番外篇——submodular函数优化

Node2Vec 论文+代码笔记

模型压缩实践收尾篇——模型蒸馏以及其他一些技巧实践小结

中文命名实体识别工具(NER)哪家强?

学自然语言处理,其实更应该学好英语

斯坦福大学NLP组Python深度学习自然语言处理工具Stanza试用

太赞了!Springer面向公众开放电子书籍,附65本数学、编程、机器学习、深度学习、数据挖掘、数据科学等书籍链接及打包下载

数学之美中盛赞的 Michael Collins 教授,他的NLP课程要不要收藏?

自动作诗机&藏头诗生成器:五言、七言、绝句、律诗全了

这门斯坦福大学自然语言处理经典入门课,我放到B站了

关于AINLP

AINLP 是一个有趣有AI的自然语言处理社区,专注于 AI、NLP、机器学习、深度学习、推荐算法等相关技术的分享,主题包括文本摘要、智能问答、聊天机器人、机器翻译、自动生成、知识图谱、预训练模型、推荐系统、计算广告、招聘信息、求职经验分享等,欢迎关注!加技术交流群请添加AINLPer(id:ainlper),备注工作/研究方向+加群目的。


阅读至此了,点个在看吧👇

登录查看更多
0

相关内容

奇异值分解(Singular Value Decomposition)是线性代数中一种重要的矩阵分解,奇异值分解则是特征分解在任意矩阵上的推广。在信号处理、统计学等领域有重要应用。
【2020新书】Python金融大数据分析宝典,426页pdf与代码
专知会员服务
151+阅读 · 2020年7月11日
【实用书】学习用Python编写代码进行数据分析,103页pdf
专知会员服务
192+阅读 · 2020年6月29日
【Amazon】使用预先训练的Transformer模型进行数据增强
专知会员服务
56+阅读 · 2020年3月6日
Transformer文本分类代码
专知会员服务
116+阅读 · 2020年2月3日
一网打尽!100+深度学习模型TensorFlow与Pytorch代码实现集合
【模型泛化教程】标签平滑与Keras, TensorFlow,和深度学习
专知会员服务
20+阅读 · 2019年12月31日
【干货】用BRET进行多标签文本分类(附代码)
专知会员服务
84+阅读 · 2019年12月27日
一文读懂深度学习文本分类方法
AINLP
15+阅读 · 2019年6月6日
NLP - 基于 BERT 的中文命名实体识别(NER)
AINLP
466+阅读 · 2019年2月10日
NLP - 15 分钟搭建中文文本分类模型
AINLP
79+阅读 · 2019年1月29日
深度学习文本分类方法综述(代码)
中国人工智能学会
28+阅读 · 2018年6月16日
word2vec中文语料训练
全球人工智能
12+阅读 · 2018年4月23日
干货|复旦中文文本分类过程(文末附语料库)
全球人工智能
21+阅读 · 2018年4月19日
【干货】--基于Python的文本情感分类
R语言中文社区
5+阅读 · 2018年1月5日
用神经网络训练一个文本分类器
Python开发者
3+阅读 · 2017年8月19日
Arxiv
8+阅读 · 2019年3月28日
Arxiv
3+阅读 · 2018年11月29日
Arxiv
4+阅读 · 2018年1月15日
VIP会员
相关VIP内容
【2020新书】Python金融大数据分析宝典,426页pdf与代码
专知会员服务
151+阅读 · 2020年7月11日
【实用书】学习用Python编写代码进行数据分析,103页pdf
专知会员服务
192+阅读 · 2020年6月29日
【Amazon】使用预先训练的Transformer模型进行数据增强
专知会员服务
56+阅读 · 2020年3月6日
Transformer文本分类代码
专知会员服务
116+阅读 · 2020年2月3日
一网打尽!100+深度学习模型TensorFlow与Pytorch代码实现集合
【模型泛化教程】标签平滑与Keras, TensorFlow,和深度学习
专知会员服务
20+阅读 · 2019年12月31日
【干货】用BRET进行多标签文本分类(附代码)
专知会员服务
84+阅读 · 2019年12月27日
相关资讯
一文读懂深度学习文本分类方法
AINLP
15+阅读 · 2019年6月6日
NLP - 基于 BERT 的中文命名实体识别(NER)
AINLP
466+阅读 · 2019年2月10日
NLP - 15 分钟搭建中文文本分类模型
AINLP
79+阅读 · 2019年1月29日
深度学习文本分类方法综述(代码)
中国人工智能学会
28+阅读 · 2018年6月16日
word2vec中文语料训练
全球人工智能
12+阅读 · 2018年4月23日
干货|复旦中文文本分类过程(文末附语料库)
全球人工智能
21+阅读 · 2018年4月19日
【干货】--基于Python的文本情感分类
R语言中文社区
5+阅读 · 2018年1月5日
用神经网络训练一个文本分类器
Python开发者
3+阅读 · 2017年8月19日
Top
微信扫码咨询专知VIP会员