Most existing named entity recognition (NER) approaches are based on sequence labeling models, which focus on capturing the local context dependencies. However, the way of taking one sentence as input prevents the modeling of non-sequential global context, which is useful especially when local context information is limited or ambiguous. To this end, we propose a model called Global Context enhanced Document-level NER (GCDoc) to leverage global contextual information from two levels, i.e., both word and sentence. At word-level, a document graph is constructed to model a wider range of dependencies between words, then obtain an enriched contextual representation for each word via graph neural networks (GNN). To avoid the interference of noise information, we further propose two strategies. First we apply the epistemic uncertainty theory to find out tokens whose representations are less reliable, thereby helping prune the document graph. Then a selective auxiliary classifier is proposed to effectively learn the weight of edges in document graph and reduce the importance of noisy neighbour nodes. At sentence-level, for appropriately modeling wider context beyond single sentence, we employ a cross-sentence module which encodes adjacent sentences and fuses it with the current sentence representation via attention and gating mechanisms. Extensive experiments on two benchmark NER datasets (CoNLL 2003 and Ontonotes 5.0 English dataset) demonstrate the effectiveness of our proposed model. Our model reaches F1 score of 92.22 (93.40 with BERT) on CoNLL 2003 dataset and 88.32 (90.49 with BERT) on Ontonotes 5.0 dataset, achieving new state-of-the-art performance.


翻译:多数现有名称实体识别(NER)方法以顺序标签模式为基础,侧重于捕捉当地环境依赖性;然而,将一个句子作为投入的方式,阻止了非顺序全球背景的建模,而当当地背景信息有限或模糊时,这种建模尤其有用。为此,我们提议了一个名为“全球背景增强文件级别NER(GCDoc)”的模式,以从两个层面,即文字和句子,利用全球背景信息。在字级一级,构建一个文件图表,以模拟更广泛的言词依赖性,然后通过图形神经神经网络(GNNNN)获得每个词的更丰富的背景代表。为避免噪音信息的干扰,我们进一步提出两个战略。首先,我们应用缩略微不确定性理论来寻找其表现不那么可靠的迹象,从而帮助描绘文件图表。然后提出一个选择性的辅助分类,以有效了解文件模型图中的边距,并降低噪音邻居节点的重要性。在句级一级,为较广的恰当建模范围,通过GNLOO-COO值数据库,在2003年版数据库数据库数据库数据库数据库中展示了两个数据库数据库。

1
下载
关闭预览

相关内容

专知会员服务
20+阅读 · 2021年4月15日
Stabilizing Transformers for Reinforcement Learning
专知会员服务
59+阅读 · 2019年10月17日
已删除
将门创投
4+阅读 · 2019年11月8日
论文浅尝 | Global Relation Embedding for Relation Extraction
开放知识图谱
12+阅读 · 2019年3月3日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
笔记 | Deep active learning for named entity recognition
黑龙江大学自然语言处理实验室
24+阅读 · 2018年5月27日
Multi-Grained Named Entity Recognition
Arxiv
6+阅读 · 2019年6月20日
Arxiv
5+阅读 · 2018年3月30日
VIP会员
相关VIP内容
专知会员服务
20+阅读 · 2021年4月15日
Stabilizing Transformers for Reinforcement Learning
专知会员服务
59+阅读 · 2019年10月17日
相关资讯
已删除
将门创投
4+阅读 · 2019年11月8日
论文浅尝 | Global Relation Embedding for Relation Extraction
开放知识图谱
12+阅读 · 2019年3月3日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
笔记 | Deep active learning for named entity recognition
黑龙江大学自然语言处理实验室
24+阅读 · 2018年5月27日
Top
微信扫码咨询专知VIP会员