【推荐】中文处理(BiLSTM分词)工具包FoolNLTK

2017 年 12 月 27 日 机器学习研究会
                                                                                                                                                                                      
点击上方 “机器学习研究会”可以订阅



摘要
 

转自:爱可可-爱生活

中文处理工具包

特点

  • 可能不是最快的开源中文分词,但很可能是最准的开源中文分词

  • 基于BiLSTM模型训练而成

  • 包含分词,词性标注,实体识别, 都有比较高的准确率

  • 用户自定义词典

Install

pip install foolnltk

使用说明

分词
import fool

text = "一个傻子在北京"
print(fool.cut(text))
# ['一个', '傻子', '在', '北京']

命令行分词

python -m fool [filename]
用户自定义词典

词典格式格式如下,词的权重越高,词的长度越长就越越可能出现, 权重值请大于1

难受香菇 10
什么鬼 10
分词工具 10
北京 10
北京天安门 10

加载词典

import fool
fool.load_userdict(path)
text = "我在北京天安门看你难受香菇"print(fool.cut(text))# ['我', '在', '北京天安门', '看', '你', '难受香菇']

删除词典

fool.delete_userdict();
词性标注
import fool

text = "一个傻子在北京"
print(fool.pos_cut(text))
#[('一个', 'm'), ('傻子', 'n'), ('在', 'p'), ('北京', 'ns')]
实体识别
import fool 

text = "一个傻子在北京"
words, ners = fool.analysis(text)
print(ners)
#[(5, 8, 'location', '北京')]

注意

  • 暂时只在Python3 Linux 平台测试通过


链接:

https://github.com/rockyzhengwu/FoolNLTK


原文链接:

https://m.weibo.cn/1402400261/4188834948484282

“完整内容”请点击【阅读原文】
↓↓↓
登录查看更多
6

相关内容

将一个汉字序列切分成一个一个单独的词
还在修改博士论文?这份《博士论文写作技巧》为你指南
深度学习自然语言处理概述,216页ppt,Jindřich Helcl
专知会员服务
212+阅读 · 2020年4月26日
分词那些事儿
AINLP
6+阅读 · 2019年3月26日
Jiagu:中文深度学习自然语言处理工具
AINLP
90+阅读 · 2019年2月20日
word2vec中文语料训练
全球人工智能
12+阅读 · 2018年4月23日
HULAC:一个高效的中文词法分析工具包(清华)
全球人工智能
5+阅读 · 2017年11月12日
Arxiv
22+阅读 · 2018年8月30日
Arxiv
14+阅读 · 2018年5月15日
Arxiv
4+阅读 · 2018年2月13日
Arxiv
5+阅读 · 2018年1月23日
Arxiv
5+阅读 · 2017年7月23日
VIP会员
相关VIP内容
相关资讯
分词那些事儿
AINLP
6+阅读 · 2019年3月26日
Jiagu:中文深度学习自然语言处理工具
AINLP
90+阅读 · 2019年2月20日
word2vec中文语料训练
全球人工智能
12+阅读 · 2018年4月23日
HULAC:一个高效的中文词法分析工具包(清华)
全球人工智能
5+阅读 · 2017年11月12日
相关论文
Arxiv
22+阅读 · 2018年8月30日
Arxiv
14+阅读 · 2018年5月15日
Arxiv
4+阅读 · 2018年2月13日
Arxiv
5+阅读 · 2018年1月23日
Arxiv
5+阅读 · 2017年7月23日
Top
微信扫码咨询专知VIP会员