Recently, many works have tried to augment the performance of Chinese named entity recognition (NER) using word lexicons. As a representative, Lattice-LSTM (Zhang and Yang, 2018) has achieved new benchmark results on several public Chinese NER datasets. However, Lattice-LSTM has a complex model architecture. This limits its application in many industrial areas where real-time NER responses are needed. In this work, we propose a simple but effective method for incorporating the word lexicon into the character representations. This method avoids designing a complicated sequence modeling architecture, and for any neural NER model, it requires only subtle adjustment of the character representation layer to introduce the lexicon information. Experimental studies on four benchmark Chinese NER datasets show that our method achieves an inference speed up to 6.15 times faster than those of state-ofthe-art methods, along with a better performance. The experimental results also show that the proposed method can be easily incorporated with pre-trained models like BERT.


翻译:最近,许多著作试图用词法来提高中国名称实体识别(NER)的绩效。作为代表,Lattice-LSTM(Zhang和Yang,2018年)在中国几个公开的NER数据集上取得了新的基准结果。然而,Lattice-LSTM有一个复杂的模型结构。这限制了它在许多需要实时NER反应的许多工业领域的应用。在这项工作中,我们提出了一个简单而有效的方法,将词法纳入字符表达中。这种方法避免设计复杂的序列建模结构,也避免了任何神经NER模型,它只需要对字符代表层进行微妙的调整,以引入词汇信息。对四个基准中国NER数据集的实验研究表明,我们的方法比最先进的方法更快到6.15倍于6.15倍,同时提高性能。实验结果还表明,拟议的方法可以很容易地与BERT等预先培训的模型相结合。

5
下载
关闭预览

相关内容

命名实体识别(NER)(也称为实体标识,实体组块和实体提取)是信息抽取的子任务,旨在将非结构化文本中提到的命名实体定位和分类为预定义类别,例如人员姓名、地名、机构名、专有名词等。

知识荟萃

精品入门和进阶教程、论文和代码整理等

更多

查看相关VIP内容、论文、资讯等
最新《Transformers模型》教程,64页ppt
专知会员服务
306+阅读 · 2020年11月26日
深度学习搜索,Exploring Deep Learning for Search
专知会员服务
57+阅读 · 2020年5月9日
Keras François Chollet 《Deep Learning with Python 》, 386页pdf
专知会员服务
151+阅读 · 2019年10月12日
RoBERTa中文预训练模型:RoBERTa for Chinese
PaperWeekly
57+阅读 · 2019年9月16日
BERT/Transformer/迁移学习NLP资源大列表
专知
19+阅读 · 2019年6月9日
NLP - 基于 BERT 的中文命名实体识别(NER)
AINLP
466+阅读 · 2019年2月10日
Facebook PyText 在 Github 上开源了
AINLP
7+阅读 · 2018年12月14日
基于Lattice LSTM的命名实体识别
微信AI
47+阅读 · 2018年10月19日
Arxiv
11+阅读 · 2019年6月19日
Universal Transformers
Arxiv
5+阅读 · 2019年3月5日
Arxiv
12+阅读 · 2019年2月28日
Arxiv
14+阅读 · 2018年5月15日
VIP会员
相关VIP内容
最新《Transformers模型》教程,64页ppt
专知会员服务
306+阅读 · 2020年11月26日
深度学习搜索,Exploring Deep Learning for Search
专知会员服务
57+阅读 · 2020年5月9日
Keras François Chollet 《Deep Learning with Python 》, 386页pdf
专知会员服务
151+阅读 · 2019年10月12日
Top
微信扫码咨询专知VIP会员