主题: FLAT: Chinese NER Using Flat-Lattice Transformer

摘要: 最近,通过结合单词信息,已证明字符-单词格结构对中文命名实体识别(NER)有效。 然而,由于晶格结构复杂且动态,因此大多数现有的基于晶格的模型难以充分利用GPU的并行计算,并且推理速度通常较低。 在本文中,我们提出了FLAT:中文NER的平面格子变压器,它将晶格结构转换为由跨度组成的平面结构。 每个跨度对应一个字符或潜在单词及其在原始格中的位置。 借助Transformer的功能和精心设计的位置编码,FLAT可以充分利用晶格信息,并具有出色的并行化能力。 在四个数据集上进行的实验表明,FLAT在性能和效率上均优于其他基于词典的模型。

成为VIP会员查看完整内容
64

相关内容

【ACL2020-复旦大学NLP】异构图神经网络的文档摘要提取
专知会员服务
35+阅读 · 2020年5月1日
进一步改进GPT和BERT:使用Transformer的语言模型
机器之心
16+阅读 · 2019年5月1日
命名实体识别(NER)综述
AI研习社
66+阅读 · 2019年1月30日
基于Lattice LSTM的命名实体识别
微信AI
48+阅读 · 2018年10月19日
ACL 2018 | 利用Lattice LSTM的最优中文命名实体识别方法
黑龙江大学自然语言处理实验室
7+阅读 · 2018年7月3日
Arxiv
11+阅读 · 2019年6月19日
Arxiv
14+阅读 · 2018年5月15日
VIP会员
相关资讯
进一步改进GPT和BERT:使用Transformer的语言模型
机器之心
16+阅读 · 2019年5月1日
命名实体识别(NER)综述
AI研习社
66+阅读 · 2019年1月30日
基于Lattice LSTM的命名实体识别
微信AI
48+阅读 · 2018年10月19日
ACL 2018 | 利用Lattice LSTM的最优中文命名实体识别方法
黑龙江大学自然语言处理实验室
7+阅读 · 2018年7月3日
微信扫码咨询专知VIP会员