Dependency trees convey rich structural information that is proven useful for extracting relations among entities in text. However, how to effectively make use of relevant information while ignoring irrelevant information from the dependency trees remains a challenging research question. Existing approaches employing rule based hard-pruning strategies for selecting relevant partial dependency structures may not always yield optimal results. In this work, we propose Attention Guided Graph Convolutional Networks (AGGCNs), a novel model which directly takes full dependency trees as inputs. Our model can be understood as a soft-pruning approach that automatically learns how to selectively attend to the relevant sub-structures useful for the relation extraction task. Extensive results on various tasks including cross-sentence n-ary relation extraction and large-scale sentence-level relation extraction show that our model is able to better leverage the structural information of the full dependency trees, giving significantly better results than previous approaches.


翻译:依赖性树木传递丰富的结构信息,事实证明这些信息对于在案文中提取实体之间的关系是有用的。然而,如何有效地利用相关信息而忽视依赖性树木的无关信息仍然是一个具有挑战性的研究问题。在选择相关的部分依赖性结构时,采用基于规则的硬调整战略的现有方法不一定总能产生最佳效果。在这项工作中,我们建议 " 引领革命网络 " (AGGCNs)是一种新颖的模式,直接将完全依赖性树木作为投入。我们的模式可以被理解为一种软调整方法,自动学习如何有选择地处理相关次级结构,而该次级结构对关系提取任务有用。关于各种任务的广泛结果,包括交叉连接关系提取和大规模判决级关系提取,表明我们的模型能够更好地利用完全依赖性树木的结构信息,其结果比以往的方法要好得多。

4
下载
关闭预览

相关内容

《计算机信息》杂志发表高质量的论文,扩大了运筹学和计算的范围,寻求有关理论、方法、实验、系统和应用方面的原创研究论文、新颖的调查和教程论文,以及描述新的和有用的软件工具的论文。官网链接:https://pubsonline.informs.org/journal/ijoc
【清华大学】图随机神经网络,Graph Random Neural Networks
专知会员服务
156+阅读 · 2020年5月26日
因果关联学习,Causal Relational Learning
专知会员服务
183+阅读 · 2020年4月21日
神经网络的拓扑结构,TOPOLOGY OF DEEP NEURAL NETWORKS
专知会员服务
33+阅读 · 2020年4月15日
《DeepGCNs: Making GCNs Go as Deep as CNNs》
专知会员服务
31+阅读 · 2019年10月17日
最新BERT相关论文清单,BERT-related Papers
专知会员服务
53+阅读 · 2019年9月29日
【ACL2020放榜!】事件抽取、关系抽取、NER、Few-Shot 相关论文整理
深度学习自然语言处理
18+阅读 · 2020年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
28+阅读 · 2019年5月18日
论文浅尝 | Global Relation Embedding for Relation Extraction
开放知识图谱
12+阅读 · 2019年3月3日
逆强化学习-学习人先验的动机
CreateAMind
16+阅读 · 2019年1月18日
无监督元学习表示学习
CreateAMind
27+阅读 · 2019年1月4日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
论文浅尝 | Distant Supervision for Relation Extraction
开放知识图谱
4+阅读 · 2017年12月25日
Local Relation Networks for Image Recognition
Arxiv
4+阅读 · 2019年4月25日
Arxiv
15+阅读 · 2019年4月4日
Arxiv
11+阅读 · 2018年10月17日
Rapid Customization for Event Extraction
Arxiv
7+阅读 · 2018年9月20日
Arxiv
4+阅读 · 2018年7月4日
Arxiv
10+阅读 · 2018年2月4日
VIP会员
相关论文
Top
微信扫码咨询专知VIP会员