自然语言处理(4)之中文文本挖掘流程详解(小白入门必读)

2017 年 12 月 22 日 机器学习算法与Python学习

微信公众号

关键字全网搜索最新排名

【机器学习算法】排名第一

【机器学习】排名第一

【Python】排名第三

【算法】排名第四


前言

在对文本做数据分析时,一大半的时间都会花在文本预处理上,而中文和英文的预处理流程稍有不同,本文对中文文本挖掘的预处理流程做一个总结。


中文文本挖掘预处理特点

首先看中文文本挖掘预处理与英文文本挖掘预处理的不同点。


首先,中文文本是没有像英文的单词空格那样隔开的,因此不能直接像英文一样可以直接用最简单的空格和标点符号完成分词。所以一般需要用分词算法来完成分词,在(干货 | 自然语言处理(1)之聊一聊分词原理)已经讲到了中文的分词原理。


第二,中文的编码不是utf8,而是unicode。这样会导致在分词时,需要处理编码的问题。


上述两点构成了中文分词相比英文分词的一些不同点,后面也会重点讲述这部分的处理。了解了中文预处理的一些特点后,通过实践总结下中文文本挖掘预处理流程。


1. 数据收集

在文本挖掘之前,需要得到文本数据,文本数据的获取方法一般有两种:使用别人做好的语料库和自己用爬虫去在网上去爬自己的语料数据。


对于第一种方法,常用的文本语料库在网上有很多,如果大家只是学习,则可以直接下载下来使用,但如果是某些特殊主题的语料库,比如“机器学习”相关的语料库,则这种方法行不通,需要我们自己用第二种方法去获取。


对于第二种使用爬虫的方法,开源工具有很多,通用的爬虫我一般使用beautifulsoup。但是我们需要某些特殊的语料数据,比如上面提到的“机器学习”相关的语料库,则需要用主题爬虫(也叫聚焦爬虫)来完成,一般使用ache。 ache允许我们用关键字或者一个分类算法来过滤出我们需要的主题语料,比较强大。


2. 除去数据中非中文部分

这一步主要是针对用爬虫收集的语料数据,由于爬下来的内容中有很多html的一些标签,需要去掉。少量的非文本内容的可以直接用Python的正则表达式(re)删除, 复杂的则可以用beautifulsoup来去除。去除掉这些非文本的内容后,就可以进行真正的文本预处理了。


3. 处理中文编码问题

由于Python2.x不支持unicode的处理,因此使用Python2.x做中文文本预处理时需要遵循的原则是,存储数据都用utf8,读出来进行中文相关处理时,使用GBK之类的中文编码,在下一节的分词再用例子说明这个问题。


4. 中文分词

常用的中文分词软件有很多,比较推荐结巴分词。安装也很简单,比如基于Python的,用"pip install jieba"就可以完成。下面我们就用例子来看看如何中文分词。


首先准备两段文本,内容分别如下:

nlp_test0.txt

沙瑞金赞叹易学习的胸怀,是金山的百姓有福,可是这件事对李达康的触动很大。易学习又回忆起他们三人分开的前一晚,大家一起喝酒话别,易学习被降职到道口县当县长,王大路下海经商,李达康连连赔礼道歉,觉得对不起大家,他最对不起的是王大路,就和易学习一起给王大路凑了5万块钱,王大路自己东挪西撮了5万块,开始下海经商。没想到后来王大路竟然做得风生水起。沙瑞金觉得他们三人,在困难时期还能以沫相助,很不容易。

nlp_test2.txt

沙瑞金向毛娅打听他们家在京州的别墅,毛娅笑着说,王大路事业有成之后,要给欧阳菁和她公司的股权,她们没有要,王大路就在京州帝豪园买了三套别墅,可是李达康和易学习都不要,这些房子都在王大路的名下,欧阳菁好像去住过,毛娅不想去,她觉得房子太大很浪费,自己家住得就很踏实。


首先将文本从第一个文件中读取进来,并使用中文GBK编码,再调用结巴分词,最后把分词结果用uft8格式存在另一个文本nlp_test1.txt中。代码如下:

# -*- coding: utf-8 -*-


import jieba


with open('./nlp_test0.txt') as f:

    document = f.read()

    

    document_decode = document.decode('GBK')

    document_cut = jieba.cut(document_decode)

    result = ' '.join(document_cut)

    result = result.encode('utf-8')

    with open('./nlp_test1.txt', 'w') as f2:

        f2.write(result)

f.close()

f2.close()


输出的文本内容如下:

nlp_test1.txt

沙 瑞金 赞叹 易 学习 的 胸怀 , 是 金山 的 百姓 有福 , 可是 这件 事对 李达康 的 触动 很大 。 易 学习 又 回忆起 他们 三人 分开 的 前一晚 , 大家 一起 喝酒 话别 , 易 学习 被 降职 到 道口 县当 县长 , 王 大路 下海经商 , 李达康 连连 赔礼道歉 , 觉得 对不起 大家 , 他 最 对不起 的 是 王 大路 , 就 和 易 学习 一起 给 王 大路 凑 了 5 万块 钱 , 王 大路 自己 东挪西撮 了 5 万块 , 开始 下海经商 。 没想到 后来 王 大路 竟然 做 得 风生水 起 。 沙 瑞金 觉得 他们 三人 , 在 困难 时期 还 能 以沫 相助 , 很 不 容易 。


可以发现对于一些人名和地名,jieba处理不好,不过可以帮jieba加入词汇如下:

jieba.suggest_freq('沙瑞金', True)                                                
jieba.suggest_freq('易学习', True)
jieba.suggest_freq('王大路', True)
jieba.suggest_freq('京州', True)


现在再重新进行读文件,编码,分词,编码和写文件,代码如下:

with open('./nlp_test0.txt') as f:

    document = f.read()

    

    document_decode = document.decode('GBK')

    document_cut = jieba.cut(document_decode)

    result = ' '.join(document_cut)

    result = result.encode('utf-8')

    with open('./nlp_test1.txt', 'w') as f2:

        f2.write(result)

f.close()

f2.close()


输出的文本内容如下:

nlp_test1.txt

沙瑞金 赞叹 易学习 的 胸怀 , 是 金山 的 百姓 有福 , 可是 这件 事对 李达康 的 触动 很大 。 易学习 又 回忆起 他们 三人 分开 的 前一晚 , 大家 一起 喝酒 话别 , 易学习 被 降职 到 道口 县当 县长 , 王大路 下海经商 , 李达康 连连 赔礼道歉 , 觉得 对不起 大家 , 他 最 对不起 的 是 王大路 , 就 和 易学习 一起 给 王大路 凑 了 5 万块 钱 , 王大路 自己 东挪西撮 了 5 万块 , 开始 下海经商 。 没想到 后来 王大路 竟然 做 得 风生水 起 。 沙瑞金 觉得 他们 三人 , 在 困难 时期 还 能 以沫 相助 , 很 不 容易 。


以同样的方法对第二段文本nlp_test2.txt进行分词和写入文件nlp_test3.txt。

with open('./nlp_test2.txt') as f:

    document2 = f.read()

    

    document2_decode = document2.decode('GBK')

    document2_cut = jieba.cut(document2_decode)

    #print  ' '.join(jieba_cut)

    result = ' '.join(document2_cut)

    result = result.encode('utf-8')

    with open('./nlp_test3.txt', 'w') as f2:

        f2.write(result)

f.close()

f2.close()


输出的文本内容如下:

nlp_test3.txt

沙瑞金 向 毛娅 打听 他们 家 在 京州 的 别墅 , 毛娅 笑 着 说 , 王大路 事业有成 之后 , 要 给 欧阳 菁 和 她 公司 的 股权 , 她们 没有 要 , 王大路 就 在 京州 帝豪园 买 了 三套 别墅 , 可是 李达康 和 易学习 都 不要 , 这些 房子 都 在 王大路 的 名下 , 欧阳 菁 好像 去 住 过 , 毛娅 不想 去 , 她 觉得 房子 太大 很 浪费 , 自己 家住 得 就 很 踏实 。


5. 引入停用词

上面解析的文本中有很多无效的词,比如“着”,“和”,还有一些标点符号,这些我们不想在文本分析时引入,因此需要去掉,这些词就是停用词常用的中文停用词表是1208个(下载地址:https://pan.baidu.com/s/1gfMXMl9)。


现在将停用词表从文件读出,并切分成一个数组备用:

#从文件导入停用词表                                                  

stpwrdpath = "stop_words.txt"

stpwrd_dic = open(stpwrdpath, 'rb')

stpwrd_content = stpwrd_dic.read()

#将停用词表转换为list  

stpwrdlst = stpwrd_content.splitlines()

stpwrd_dic.close()


6. 特征处理

现在可以用scikit-learn来对文本特征进行处理,在()中讲到了两种特征处理的方法,向量化与Hash Trick而向量化是最常用的方法,因为它可以接着进行TF-IDF的特征处理。在()中也讲到了TF-IDF特征处理的方法,这里使用scikit-learn的TfidfVectorizer类来进行TF-IDF特征处理。


TfidfVectorizer类可以完成向量化,TF-IDF和标准化三步。当然,还可以处理停用词。现在把上面分词好的文本载入内存:

with open('./nlp_test1.txt') as f3:                                          

    res1 = f3.read()

print res1

with open('./nlp_test3.txt') as f4:

    res2 = f4.read()

print res2



现在可以进行向量化,TF-IDF和标准化三步处理(这里引入了上面的停用词表)。

from sklearn.feature_extraction.text import TfidfVectorizer
corpus = [res1,res2]
vector = TfidfVectorizer(stop_words=stpwrdlst)
tfidf = vector.fit_transform(corpus)

print tfidf


部分输出如下:

(0, 44)0.154467434933
 (0, 59)0.108549295069
 (0, 39)0.308934869866
 (0, 53)0.108549295069
  ....
 (1, 27)0.139891059658
 (1, 47)0.139891059658
 (1, 30)0.139891059658
 (1, 60)0.139891059658


看看每个词与TF-IDF的对应关系:

wordlist = vector.get_feature_names()#获取词袋模型中的所有词  

# tf-idf矩阵 元素a[i][j]表示j词在i类文本中的tf-idf权重

weightlist = tfidf.toarray()  

#打印每类文本的tf-idf词语权重,第一个for遍历所有文本,第二个for便利某一类文本下的词语权重

for i in range(len(weightlist)):  

    print "-------第",i,"段文本的词语tf-idf权重------"  

    for j in range(len(wordlist)):  

        print wordlist[j],weightlist[i][j]


部分输出如下:


-------第 0 段文本的词语tf-idf权重------
一起 0.217098590137
万块 0.217098590137
三人 0.217098590137
三套 0.0
下海经商 0.217098590137
.....
-------第 1 段文本的词语tf-idf权重------
.....
李达康 0.0995336411066
欧阳 0.279782119316
毛娅 0.419673178975
沙瑞金 0.0995336411066
没想到 0.0
没有 0.139891059658
浪费 0.139891059658
王大路 0.29860092332
.....


7. 建立分析模型

有了每段文本的TF-IDF的特征向量,就可以利用这些数据建立分类或者聚类模型了,或者进行主题模型的分析。此时的分类聚类模型和之前讲的非自然语言处理的数据分析没有什么两样。因此对应的算法都可以直接使用。


小结

本文对中文文本挖掘预处理的过程做了一个总结,希望可以帮助到大家。需要注意的是这个流程主要针对一些常用的文本挖掘,并使用了词袋模型,对于某一些自然语言处理的需求则流程需要修改。比如我们涉及到词上下文关系的一些需求,此时不能使用词袋模型。而有时候我们对于特征的处理有自己的特殊需求,因此这个流程仅供自然语言处理入门者参考。


欢迎分享给他人让更多的人受益

参考:

  1. 宗成庆《统计自然语言处理》 第2版

  2. 博客园

    http://www.cnblogs.com/pinard/p/6744056.html


近期热文

普通程序员转型深度学习指南

机器学习(33)之局部线性嵌入(LLE)【降维】总结

干货 | 自然语言处理(3)之词频-逆文本词频(TF-IDF)详解

机器学习(32)之典型相关性分析(CCA)详解 【文末有福利......】

干货 | 自然语言处理(2)之浅谈向量化与Hash-Trick

干货 | 自然语言处理(1)之聊一聊分词原理

加入微信机器学习交流

请添加微信:guodongwe1991

备注姓名-单位-研究方向


广告、商业合作

请添加微信:guodongwe1991

(备注:商务合作)

登录查看更多
5

相关内容

将一个汉字序列切分成一个一个单独的词
干净的数据:数据清洗入门与实践,204页pdf
专知会员服务
161+阅读 · 2020年5月14日
【干货书】流畅Python,766页pdf,中英文版
专知会员服务
224+阅读 · 2020年3月22日
《深度学习》圣经花书的数学推导、原理与Python代码实现
Transformer文本分类代码
专知会员服务
116+阅读 · 2020年2月3日
NLP基础任务:文本分类近年发展汇总,68页超详细解析
专知会员服务
57+阅读 · 2020年1月3日
【干货】大数据入门指南:Hadoop、Hive、Spark、 Storm等
专知会员服务
95+阅读 · 2019年12月4日
中文自然语言处理入门实战
人工智能头条
16+阅读 · 2019年1月11日
自然语言处理NLP快速入门
专知
20+阅读 · 2018年10月8日
中文NLP用什么?中文自然语言处理的完整机器处理流程
人工智能头条
61+阅读 · 2018年9月5日
NLP概述和文本自动分类算法详解 | 公开课笔记
人工智能头条
5+阅读 · 2018年7月24日
干货 | 自然语言处理(5)之英文文本挖掘预处理流程
机器学习算法与Python学习
7+阅读 · 2018年4月5日
文本情感分析的预处理
Datartisan数据工匠
17+阅读 · 2018年3月8日
干货 | 自然语言处理(3)之词频-逆文本词频(TF-IDF)详解
机器学习算法与Python学习
3+阅读 · 2017年12月19日
干货 | 自然语言处理(1)之聊一聊分词原理
机器学习算法与Python学习
5+阅读 · 2017年12月7日
Python3爬虫之入门和正则表达式
全球人工智能
7+阅读 · 2017年10月9日
Arxiv
3+阅读 · 2019年3月1日
Arxiv
11+阅读 · 2018年10月17日
Arxiv
22+阅读 · 2018年8月30日
Arxiv
5+阅读 · 2018年5月5日
Arxiv
13+阅读 · 2018年1月20日
VIP会员
相关VIP内容
干净的数据:数据清洗入门与实践,204页pdf
专知会员服务
161+阅读 · 2020年5月14日
【干货书】流畅Python,766页pdf,中英文版
专知会员服务
224+阅读 · 2020年3月22日
《深度学习》圣经花书的数学推导、原理与Python代码实现
Transformer文本分类代码
专知会员服务
116+阅读 · 2020年2月3日
NLP基础任务:文本分类近年发展汇总,68页超详细解析
专知会员服务
57+阅读 · 2020年1月3日
【干货】大数据入门指南:Hadoop、Hive、Spark、 Storm等
专知会员服务
95+阅读 · 2019年12月4日
相关资讯
中文自然语言处理入门实战
人工智能头条
16+阅读 · 2019年1月11日
自然语言处理NLP快速入门
专知
20+阅读 · 2018年10月8日
中文NLP用什么?中文自然语言处理的完整机器处理流程
人工智能头条
61+阅读 · 2018年9月5日
NLP概述和文本自动分类算法详解 | 公开课笔记
人工智能头条
5+阅读 · 2018年7月24日
干货 | 自然语言处理(5)之英文文本挖掘预处理流程
机器学习算法与Python学习
7+阅读 · 2018年4月5日
文本情感分析的预处理
Datartisan数据工匠
17+阅读 · 2018年3月8日
干货 | 自然语言处理(3)之词频-逆文本词频(TF-IDF)详解
机器学习算法与Python学习
3+阅读 · 2017年12月19日
干货 | 自然语言处理(1)之聊一聊分词原理
机器学习算法与Python学习
5+阅读 · 2017年12月7日
Python3爬虫之入门和正则表达式
全球人工智能
7+阅读 · 2017年10月9日
相关论文
Top
微信扫码咨询专知VIP会员