Joint entity and relation extraction framework constructs a unified model to perform entity recognition and relation extraction simultaneously, which can exploit the dependency between the two tasks to mitigate the error propagation problem suffered by the pipeline model. Current efforts on joint entity and relation extraction focus on enhancing the interaction between entity recognition and relation extraction through parameter sharing, joint decoding, or other ad-hoc tricks (e.g., modeled as a semi-Markov decision process, cast as a multi-round reading comprehension task). However, there are still two issues on the table. First, the interaction utilized by most methods is still weak and uni-directional, which is unable to model the mutual dependency between the two tasks. Second, relation triggers are ignored by most methods, which can help explain why humans would extract a relation in the sentence. They're essential for relation extraction but overlooked. To this end, we present a Trigger-Sense Memory Flow Framework (TriMF) for joint entity and relation extraction. We build a memory module to remember category representations learned in entity recognition and relation extraction tasks. And based on it, we design a multi-level memory flow attention mechanism to enhance the bi-directional interaction between entity recognition and relation extraction. Moreover, without any human annotations, our model can enhance relation trigger information in a sentence through a trigger sensor module, which improves the model performance and makes model predictions with better interpretation. Experiment results show that our proposed framework achieves state-of-the-art results by improves the relation F1 to 52.44% (+3.2%) on SciERC, 66.49% (+4.9%) on ACE05, 72.35% (+0.6%) on CoNLL04 and 80.66% (+2.3%) on ADE.


翻译:联合实体和关系提取框架构建了一个统一的模型,以同时进行实体识别和关系提取,这可以利用两个任务之间的依赖性来缓解管道模型所面临的错误传播问题。当前关于联合实体和关系提取的各种努力侧重于通过参数共享、联合解码或其他特别花招(例如,作为半马尔科夫决定程序建模,作为多轮阅读理解任务推出)加强实体识别和关系提取之间的相互作用。然而,在桌面上仍有两个问题。首先,大多数方法所使用的互动仍然薄弱,而且单向,无法模拟两个任务之间的相互依赖性。第二,当前关于联合实体和关系提取的各种努力侧重于加强实体之间的相互作用,这可以解释为什么人类在句中会得出某种关系。它们对于关系提取(例如,作为半马尔科夫决定程序的模型模型模型模型模型,推出Trigger-Sensense Limel流(TriMF)框架,我们建立了一个记忆模块,以记住在实体识别和关系中学习的类别表现。基于该模块,我们设计了一个多级的记忆流动关注机制,而没有通过IMelimeal Frider 动作模型,从而提升了我们的信息导导导导导导导导导导导导导导导导导导导导导导导导导导导导导导导导导导导导导导导导导导导导导导导导导导导导导导导导导导导导导导导导导导导导导导导导导导导导导导导导导导导导导导导导导导导导导导导导导导导导导导导导导导导导导导导导导导导导导导导导导导导导导导导导导导导导导导导导导导导导导导导导导导导导导导导导导导导导导导导导导导导导导导导导导导导导导导导导导导导导导导导导导导导导导导导导导导导导导导导导导导导导导导导导导导导导导导导导导导导导导导导导导导导导导导导导导导导导导导导导导导导导导导导导导导导导导导导导导导导导导导导导导导导

0
下载
关闭预览

相关内容

专知会员服务
123+阅读 · 2020年9月8日
100+篇《自监督学习(Self-Supervised Learning)》论文最新合集
专知会员服务
161+阅读 · 2020年3月18日
开源书:PyTorch深度学习起步
专知会员服务
49+阅读 · 2019年10月11日
机器学习入门的经验与建议
专知会员服务
89+阅读 · 2019年10月10日
【SIGGRAPH2019】TensorFlow 2.0深度学习计算机图形学应用
专知会员服务
39+阅读 · 2019年10月9日
最新BERT相关论文清单,BERT-related Papers
专知会员服务
52+阅读 · 2019年9月29日
【ACL2020放榜!】事件抽取、关系抽取、NER、Few-Shot 相关论文整理
深度学习自然语言处理
18+阅读 · 2020年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
25+阅读 · 2019年5月18日
论文浅尝 | Global Relation Embedding for Relation Extraction
开放知识图谱
12+阅读 · 2019年3月3日
论文浅尝 | Zero-Shot Transfer Learning for Event Extraction
开放知识图谱
25+阅读 · 2018年11月1日
论文浅尝 | EARL: Joint Entity and Relation Linking for QA over KG
开放知识图谱
6+阅读 · 2018年10月30日
【推荐】自然语言处理(NLP)指南
机器学习研究会
35+阅读 · 2017年11月17日
Arxiv
10+阅读 · 2018年4月19日
VIP会员
相关VIP内容
专知会员服务
123+阅读 · 2020年9月8日
100+篇《自监督学习(Self-Supervised Learning)》论文最新合集
专知会员服务
161+阅读 · 2020年3月18日
开源书:PyTorch深度学习起步
专知会员服务
49+阅读 · 2019年10月11日
机器学习入门的经验与建议
专知会员服务
89+阅读 · 2019年10月10日
【SIGGRAPH2019】TensorFlow 2.0深度学习计算机图形学应用
专知会员服务
39+阅读 · 2019年10月9日
最新BERT相关论文清单,BERT-related Papers
专知会员服务
52+阅读 · 2019年9月29日
Top
微信扫码咨询专知VIP会员