分词那些事儿

2019 年 3 月 26 日 AINLP

本文系作者投稿,作者公众号:AI小白入门(id: StudyForAI),欢迎关注,点击文末"阅读原文"可直达原文链接,也欢迎大家投稿,AI、NLP相关即可。





本文谈一谈分词的那些事儿,从定义、难点到基本方法总结,文章最后推荐一些不错的实战利器。



定义


先来看看维基百科上分词的定义:Word segmentation is the problem of dividing a string of written language into its component words.


中文分词(Chinese Word Segmentation)指的是将一个汉字序列切分成一个个单独的词。分词就是将连续的字序列按照一定的规范重新组合成词序列的过程。


简单的讲,中文分词就是让计算机系统在汉语文本中的词与词之间自动加上空格或其他边界标记。



汉语分词的难点


汉语分词是自然语言处理中一个重要的基础研究任务,其主要难点包括分词规范、歧义切分、未登录词识别等。


分词规范:词这个概念一直是汉语语言学界纠缠不清又挥之不去的问题,也就是说,对于词的抽象定义(词是什么)和词的具体界定(什么是词)迄今拿不出一个公认的、具有权威性的词表来。


歧义切分:切分歧义是汉语分词研究中一个大问题,因为歧义字段在汉语文本中大量存在。处理这类问题可能需要进行复杂的上下文语义分析,甚至韵律分析(语气、重音、停顿等)。


未登录词识别:未登录词又叫生词,一般有二种解释:第一种指的是已有的词表中没有收录的词;第二种指的是已有的训练语料中未曾出现过的词。在第二种解释下,又称之为集外词(out of vocabulary,OOV)



分词基本方法


分词的基本方法包括基于词典的方法、基于理解的分词方法和基于统计的分词方法、基于深度学习的分词方法等。


基于词典的分词方法(机械分词)


这种方法本质上就是字符串匹配的方法,将一串文本中的文字片段和已有的词典进行匹配,如果匹配到,则此文字片段就作为一个分词结果。但是基于词典的机械切分会遇到多种问题,最为常见的包括歧义切分问题和未登录词问题。


常用的字符串匹配方法包括:正向最大匹配法(从左到右的方向);逆向最大匹配法(从右到左的方向);最小切分(每一句中切出的词数最小)双向最大匹配(进行从左到右、从右到左两次扫描)。


这类算法的优点是速度快,时间复杂度可以保持在O(n),实现简单,效果尚可,但是对歧义和未登录词处理效果不佳。


基于统计的分词方法


基于统计的分词方法是在给定大量已经分词的文本的前提下,利用统计机器学习模型学习词语切分的规律(称为训练),从而实现对未知文本的切分。例如最大概率分词方法和最大熵分词方法等。随着大规模语料库的建立,统计机器学习方法的研究和发展,基于统计的中文分词方法渐渐成为了主流方法。


主要的统计模型有:N元文法模型(N-gram),隐马尔可夫模型(Hidden Markov Model ,HMM),最大熵模型(ME),条件随机场模型(Conditional Random Fields,CRF)等。


基于统计的分词方法包括:N-最短路径方法、基于词的n元语法模型的分词方法、由字构词的汉语分词方法、基于词感知机算法的汉语分词方法、基于字的生成式模型和区分式模型相结合的汉语分词方法。


基于深度学习的分词方法


近几年,深度学习方法为分词技术带来了新的思路,直接以最基本的向量化原子特征作为输入,经过多层非线性变换,输出层就可以很好的预测当前字的标记或下一个动作。在深度学习的框架下,仍然可以采用基于子序列标注的方式,或基于转移的方式,以及半马尔科夫条件随机场。


这类方法首先对语料的字进行嵌入,得到字嵌入后,将字嵌入特征输入给双向LSTM,输出层输出深度学习所学习到的特征,并输入给CRF层,得到最终模型。现有的方法包括:LSTM+CRF、BiLSTM+CRF等。


基于理解的分词方法


基于理解的分词方法是通过让计算机模拟人对句子的理解,达到识别词的效果。其基本思想就是在分词的同时进行句法、语义分析,利用句法信息和语义信息来处理歧义现象。


它通常包括三个部分:分词子系统、句法语义子系统、总控部分。在总控部分的协调下,分词子系统可以获得有关词、句子等的句法和语义信息来对分词歧义进行判断,即它模拟了人对句子的理解过程。


这种分词方法需要使用大量的语言知识和信息。由于汉语语言知识的笼统、复杂性,难以将各种语言信息组织成机器可直接读取的形式,因此目前基于理解的分词系统还处在试验阶段。



分词工具推荐


Jieba

“结巴”中文分词:做最好的 Python 中文分词组件。

Github地址:https://github.com/fxsjy/jieba

# 安装:pip install jieba
# 国内源安装更快:pip install jieba -i https://pypi.tuna.tsinghua.edu.cn/simple
import jieba

# 全模式分词
wordseg_all = jieba.cut("我爱自然语言处理技术!", cut_all=True)
print("全模式: " + " ".join(wordseg_all))
# 输出:全模式: 我 爱 自然 自然语言 语言 处理 技术 

# 精确模式分词
wordseg = jieba.cut("我爱自然语言处理技术!", cut_all=False)
print("精确模式: " + " ".join(wordseg))
# 输出:精确模式: 我 爱 自然语言 处理 技术 !

# 搜索引擎模式
wordseg_search = jieba.cut_for_search("我爱自然语言处理技术!")  
print("搜索引擎模式:" + " ".join(wordseg_search))
# 输出:搜索引擎模式:我 爱 自然 语言 自然语言 处理 技术 !


SnowNLP

SnowNLP是一个python写的类库,可以方便的处理中文文本内容。

Github地址:https://github.com/isnowfy/snownlp


# 安装:pip install snownlp
# 国内源安装:pip install snownlp  -i https://pypi.tuna.tsinghua.edu.cn/simple
from snownlp import SnowNLP
model = SnowNLP(u'我爱自然语言处理技术!')
print(model.words)

# 输出:['我', '爱', '自然', '语言', '处理', '技术', '!']


THULAC

THULAC(THU Lexical Analyzer for Chinese)由清华大学自然语言处理与社会人文计算实验室研制推出的一套中文词法分析工具包,具有中文分词和词性标注功能。

Github地址:https://github.com/thunlp/THULAC


# 安装:pip install thulac
# 国内源安装:pip install thulac     -i https://pypi.tuna.tsinghua.edu.cn/simple
import thulac
# 默认模式:分词的同时进行词性标注
thulac_model = thulac.thulac()
wordseg = thulac_model.cut("我爱自然语言处理技术!")
print(wordseg)

# 输出:[['我', 'r'], ['爱', 'v'], ['自然', 'n'], ['语言', 'n'], ['处理', 'v'], ['技术', 'n'], ['!', 'w']]

# 只进行分词
seg_only_model = thulac.thulac(seg_only=True)
wordseg_only = seg_only_model.cut("我爱自然语言处理技术!")
print(wordseg_only)

# 输出:[['我', ''], ['爱', ''], ['自然', ''], ['语言', ''], ['处理', ''], ['技术', ''], ['!', '']]


NLPIR

NLPIR-ICTCLAS汉语分词系统。

Github地址:https://github.com/tsroten/pynlpir


# 安装:pip install pynlpir
# 国内源安装:pip install pynlpir -i https://pypi.tuna.tsinghua.edu.cn/simple
# 导入pynlpir包
# 如果发现加载报错,则需要更换license:https://github.com/NLPIR-team/NLPIR/tree/master/License/
import pynlpir
# 打开分词器
pynlpir.open()
# 分词:这个工具会同时进行词性标注
s = "我爱自然语言处理技术!"
word_seg = pynlpir.segment(s)
print(word_seg)

# 输出:[('我', 'pronoun'), ('爱', 'verb'), ('自然', 'adjective'), ('语言', 'noun'), ('处理', 'verb'), ('技术', 'noun'), ('!', 'punctuation mark')]


StanfordCoreNLP

斯坦福NLP组的开源,支持python接口。

Github地址:https://github.com/Lynten/stanford-corenlp


# 安装:pip install stanfordcorenlp
# 国内源安装:pip install stanfordcorenlp -i https://pypi.tuna.tsinghua.edu.cn/simple
from stanfordcorenlp import StanfordCoreNLP
# 先下载模型,然后导入,下载地址:https://nlp.stanford.edu/software/
nlp_model = StanfordCoreNLP(r'stanford-corenlp-full-2018-02-27', lang='zh')
# 分词
s = '我爱自然语言处理技术!'
word_seg = nlp_model.word_tokenize(s)
print(word_seg)

# 输出:['我爱', '自然', '语言', '处理', '技术', '!']


HanLP

HanLP是一系列模型与算法组成的NLP工具包,由大快搜索主导并完全开源,目标是普及自然语言处理在生产环境中的应用。

Github地址:https://github.com/hankcs/pyhanlp


# 安装:pip install pyhanlp
# 国内源安装:pip install pyhanlp  -i https://pypi.tuna.tsinghua.edu.cn/simple
from pyhanlp import *

s = '我爱自然语言处理技术!'
word_seg = HanLP.segment(s)
for term in word_seg:
   print(term.word)


代码已上传:https://github.com/yuquanle/StudyForNLP/blob/master/NLPbasic/WordSegmentation.ipynb


参考:

1.统计自然语言处理

2.中文信息处理报告-2016


作者乐雨泉,湖南大学在读硕士,研究方向机器学习与自然语言处理,曾在IJCAI、TASLP等会议/期刊发表文章多篇。本文系作者学习过程中的整理总结,欢迎志同道合的朋友关注作者公众号"AI小白入门",一起交流学习,探讨成长

长按二维码关注~
AI小白入门

ID: StudyForAI

学习AI学习ai(爱)

期待与您的相遇

登录查看更多
6

相关内容

将一个汉字序列切分成一个一个单独的词
最新《多任务学习》综述,39页pdf
专知会员服务
263+阅读 · 2020年7月10日
基于深度学习的表面缺陷检测方法综述
专知会员服务
85+阅读 · 2020年5月31日
专知会员服务
155+阅读 · 2020年4月21日
简明扼要!Python教程手册,206页pdf
专知会员服务
47+阅读 · 2020年3月24日
【干货书】流畅Python,766页pdf,中英文版
专知会员服务
224+阅读 · 2020年3月22日
一文了解成分句法分析
人工智能头条
15+阅读 · 2019年4月24日
一起来看看词性标注
AINLP
8+阅读 · 2019年4月9日
NLP 分词的那些事儿
人工智能头条
8+阅读 · 2019年3月15日
中文NLP用什么?中文自然语言处理的完整机器处理流程
人工智能头条
61+阅读 · 2018年9月5日
准确实用,7个优秀的开源中文分词库推荐
开源中国
5+阅读 · 2018年7月26日
【推荐】中文处理(BiLSTM分词)工具包FoolNLTK
机器学习研究会
6+阅读 · 2017年12月27日
中文NLP难于英文?从语言学角度看中文NLP、NLU难在哪里
炼数成金订阅号
3+阅读 · 2017年7月3日
Arxiv
22+阅读 · 2018年8月30日
Arxiv
5+阅读 · 2018年5月5日
VIP会员
相关VIP内容
最新《多任务学习》综述,39页pdf
专知会员服务
263+阅读 · 2020年7月10日
基于深度学习的表面缺陷检测方法综述
专知会员服务
85+阅读 · 2020年5月31日
专知会员服务
155+阅读 · 2020年4月21日
简明扼要!Python教程手册,206页pdf
专知会员服务
47+阅读 · 2020年3月24日
【干货书】流畅Python,766页pdf,中英文版
专知会员服务
224+阅读 · 2020年3月22日
相关资讯
一文了解成分句法分析
人工智能头条
15+阅读 · 2019年4月24日
一起来看看词性标注
AINLP
8+阅读 · 2019年4月9日
NLP 分词的那些事儿
人工智能头条
8+阅读 · 2019年3月15日
中文NLP用什么?中文自然语言处理的完整机器处理流程
人工智能头条
61+阅读 · 2018年9月5日
准确实用,7个优秀的开源中文分词库推荐
开源中国
5+阅读 · 2018年7月26日
【推荐】中文处理(BiLSTM分词)工具包FoolNLTK
机器学习研究会
6+阅读 · 2017年12月27日
中文NLP难于英文?从语言学角度看中文NLP、NLU难在哪里
炼数成金订阅号
3+阅读 · 2017年7月3日
Top
微信扫码咨询专知VIP会员