本文经AI新媒体量子位(公众号ID:qbitai)授权转载,转载请联系出处。
本文约1200字,建议阅读6分钟。
本文为你介绍鹅厂近期正式开源的一个大规模、高质量的中文词向量数据集。
鹅厂开源,+1 again~
又一来自腾讯AI实验室的资源帖。
腾讯AI实验室宣布,正式开源一个大规模、高质量的中文词向量数据集。
该数据集包含800多万中文词汇,相比现有的公开数据,在覆盖率、新鲜度及准确性上大幅提高。
在对话回复质量预测、医疗实体识别等自然语言处理方向的业务应用方面,腾讯内部效果提升显著。
总体来讲,腾讯AI实验室此次公开的中文词向量数据集包含800多万中文词汇,其中每个词对应一个200维的向量。
具体方面,腾讯自称,该数据集着重在3方面进行了提升:
1. 覆盖率(Coverage):
该词向量数据包含很多现有公开的词向量数据所欠缺的短语,比如“不念僧面念佛面”、“冰火两重天”、“煮酒论英雄”、“皇帝菜”、“喀拉喀什河”等。
以“喀拉喀什河”为例,利用腾讯AI Lab词向量计算出的语义相似词如下:
墨玉河、和田河、玉龙喀什河、白玉河、喀什河、叶尔羌河、克里雅河、玛纳斯河
2. 新鲜度(Freshness):
该数据包含一些最近一两年出现的新词,如“恋与制作人”、“三生三世十里桃花”、“打call”、“十动然拒”、“供给侧改革”、“因吹斯汀”等。
以“因吹斯汀”为例,利用腾讯AI Lab词向量计算出的语义相似词如下:
一颗赛艇、因吹斯听、城会玩、厉害了word哥、emmmmm、扎心了老铁、神吐槽、可以说是非常爆笑了
3. 准确性(Accuracy):
由于采用了更大规模的训练数据和更好的训练算法,所生成的词向量能够更好地表达词之间的语义关系,如下列相似词检索结果所示:
在开源前,腾讯内部经历了多次测评,认为该数据集相比于现有的公开数据,在相似度和相关度指标上均达到了更高的分值。
那么这样的数据集,腾讯AI实验室是如何构建的呢?
他们围绕3方面分享了构建及优化经验:
1. 语料采集:
训练词向量的语料来自腾讯新闻和天天快报的新闻语料,以及自行抓取的互联网网页和小说语料。
大规模多来源语料的组合,使得所生成的词向量数据能够涵盖多种类型的词汇。
而采用新闻数据和最新网页数据对新词建模,也使得词向量数据的新鲜度大为提升。
2. 词库构建:
除了引入维基百科和百度百科的部分词条之外,还实现了Shi等人于2010年提出的语义扩展算法,可从海量的网页数据中自动发现新词——根据词汇模式和超文本标记模式,在发现新词的同时计算新词之间的语义相似度。
3. 训练算法:
腾讯AI Lab采用自研的Directional Skip-Gram (DSG)算法作为词向量的训练算法。
DSG算法基于广泛采用的词向量训练算法Skip-Gram (SG),在文本窗口中词对共现关系的基础上,额外考虑了词对的相对位置,以提高词向量语义表示的准确性。
最后,表扬一下鹅厂的开源之举。
目前针对英语环境,工业界和学术界已发布了一些高质量的词向量数据,并得到了广泛的使用和验证。
其中较为知名的有谷歌公司基于word2vec算法、斯坦福大学基于GloVe算法、Facebook基于fastText项目发布的数据等。
然而,目前公开可下载的中文词向量数据还比较少,并且数据的词汇覆盖率有所不足,特别是缺乏很多短语和网络新词。
所以有资源有能力的腾讯,还有心做这样的事情,对业界实属利好。
希望腾讯AI实验室的开源之举,多多益善吧~
传送门
数据下载地址:
https://ai.tencent.com/ailab/nlp/embedding.html
— 完 —