主题: FLAT: Chinese NER Using Flat-Lattice Transformer

摘要: 最近,通过结合单词信息,已证明字符-单词格结构对中文命名实体识别(NER)有效。 然而,由于晶格结构复杂且动态,因此大多数现有的基于晶格的模型难以充分利用GPU的并行计算,并且推理速度通常较低。 在本文中,我们提出了FLAT:中文NER的平面格子变压器,它将晶格结构转换为由跨度组成的平面结构。 每个跨度对应一个字符或潜在单词及其在原始格中的位置。 借助Transformer的功能和精心设计的位置编码,FLAT可以充分利用晶格信息,并具有出色的并行化能力。 在四个数据集上进行的实验表明,FLAT在性能和效率上均优于其他基于词典的模型。

成为VIP会员查看完整内容
63

相关内容

【ACL2020-复旦大学NLP】异构图神经网络的文档摘要提取
专知会员服务
34+阅读 · 2020年5月1日
命名实体识别新SOTA:改进Transformer模型
AI科技评论
17+阅读 · 2019年11月26日
RoBERTa中文预训练模型:RoBERTa for Chinese
PaperWeekly
57+阅读 · 2019年9月16日
深度学习的下一步:Transformer和注意力机制
云头条
56+阅读 · 2019年9月14日
进一步改进GPT和BERT:使用Transformer的语言模型
机器之心
16+阅读 · 2019年5月1日
命名实体识别(NER)综述
AI研习社
65+阅读 · 2019年1月30日
基于Lattice LSTM的命名实体识别
微信AI
47+阅读 · 2018年10月19日
ACL 2018 | 利用Lattice LSTM的最优中文命名实体识别方法
黑龙江大学自然语言处理实验室
7+阅读 · 2018年7月3日
Arxiv
11+阅读 · 2019年6月19日
The Evolved Transformer
Arxiv
5+阅读 · 2019年1月30日
Arxiv
14+阅读 · 2018年5月15日
Arxiv
3+阅读 · 2018年2月12日
VIP会员
相关VIP内容
【ACL2020-复旦大学NLP】异构图神经网络的文档摘要提取
专知会员服务
34+阅读 · 2020年5月1日
相关资讯
命名实体识别新SOTA:改进Transformer模型
AI科技评论
17+阅读 · 2019年11月26日
RoBERTa中文预训练模型:RoBERTa for Chinese
PaperWeekly
57+阅读 · 2019年9月16日
深度学习的下一步:Transformer和注意力机制
云头条
56+阅读 · 2019年9月14日
进一步改进GPT和BERT:使用Transformer的语言模型
机器之心
16+阅读 · 2019年5月1日
命名实体识别(NER)综述
AI研习社
65+阅读 · 2019年1月30日
基于Lattice LSTM的命名实体识别
微信AI
47+阅读 · 2018年10月19日
ACL 2018 | 利用Lattice LSTM的最优中文命名实体识别方法
黑龙江大学自然语言处理实验室
7+阅读 · 2018年7月3日
微信扫码咨询专知VIP会员