To solve the problem of redundant information and overlapping relations of the entity and relation extraction model, we propose a joint extraction model. This model can directly extract multiple pairs of related entities without generating unrelated redundant information. We also propose a recurrent neural network named Encoder-LSTM that enhances the ability of recurrent units to model sentences. Specifically, the joint model includes three sub-modules: the Named Entity Recognition sub-module consisted of a pre-trained language model and an LSTM decoder layer, the Entity Pair Extraction sub-module which uses Encoder-LSTM network to model the order relationship between related entity pairs, and the Relation Classification sub-module including Attention mechanism. We conducted experiments on the public datasets ADE and CoNLL04 to evaluate the effectiveness of our model. The results show that the proposed model achieves good performance in the task of entity and relation extraction and can greatly reduce the amount of redundant information.


翻译:为了解决实体和关系提取模型的冗余信息和重叠关系问题,我们提议了一个联合提取模型,该模型可以直接提取多个相关实体,而不会产生无关的冗余信息;我们还提议了一个名为Encoder-LSTM的经常性神经网络,以提高经常性单元的示范句号能力;具体地说,该联合模型包括三个分模块:名称实体识别分模块,由预先培训的语言模型和LSTM脱钩层组成;实体Pair提取子模块,利用Encoder-LSTM网络来模拟相关实体对口的排序关系;以及Relation分类子模块,包括注意机制;我们对公共数据集ADE和CONLL04进行了实验,以评价我们模型的有效性;结果显示,拟议的模型在实体任务和关系提取中取得了良好的表现,可以大大减少多余信息的数量。

0
下载
关闭预览

相关内容

【EMNLP2020-清华】基于常识知识图谱的多跳推理语言生成
专知会员服务
73+阅读 · 2020年9月25日
因果图,Causal Graphs,52页ppt
专知会员服务
246+阅读 · 2020年4月19日
多模态深度学习综述,18页pdf
专知会员服务
213+阅读 · 2020年3月29日
最新BERT相关论文清单,BERT-related Papers
专知会员服务
52+阅读 · 2019年9月29日
论文浅尝 | Global Relation Embedding for Relation Extraction
开放知识图谱
12+阅读 · 2019年3月3日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
论文浅尝 | Distant Supervision for Relation Extraction
开放知识图谱
4+阅读 · 2017年12月25日
Arxiv
10+阅读 · 2018年4月19日
Arxiv
9+阅读 · 2018年3月10日
VIP会员
Top
微信扫码咨询专知VIP会员