论文浅尝 | Effective Deep Memory Networks for Relation Extraction

2017 年 12 月 29 日 开放知识图谱 刘兵



Citation: Zeng, D., Liu, K., Chen, Y., & Zhao, J. (2015). Distant Supervision forRelation Extraction via Piecewise Convolutional Neural Networks. Proceedings ofthe 2015 Conference on Empirical Methods in Natural Language Processing,(September), 1753–1762. https://doi.org/10.18653/v1/D15-1203


动机

 

本文将高效深度记忆网络应用于远程监督的关系抽取,基于的观察有两点:

1)句子中实体对的上下文单词对于判断其关系的重要性是不同的;

2)不同的关系之间存在依存关系;

本文提出的模型包括两个基于注意力的记忆神经网络,第一个是单词级别的记忆网络,用于句子中不同单词的权重学习,每个单词的权重与两个实体有关;第二个是关系级别的基于注意力的记忆神经网络,用于学习不同句子实例的权重和关系间的依存关系。

实验结果表明本文提出的方法比现有最好的方法有较大提升。

 

贡献

1)本文提出一个包含两个记忆网络的神经网络架构,能够建模每个单词与两个实体的语义相关性和关系间的依存关系;

2)本文提出的方法在真实数据集上超过所有已有方法;

 

方法

文章提出的神经网络模型包括三个模块:(1)单词级别的记忆网络,用于表示句子中实体对的上下文信息,即生成每个句子包含的实体对信息的向量;(2)关系级别的记忆网络,用于将实体对对应的句子集表示成相对于每一种关系的向量表示;(3)输出层,以句子集相对于每一种关系的向量表示作为输入,得到实体在各种关系上的可能性;

下面着重介绍单词级别的记忆网络和关系级别的记忆网络:

  • 单词级别的记忆网络

单词级别的记忆网络如上如左下角所示,以句子作为输入,生成表示句子的向量。模型流程为:

(1)       以句子作为记忆神经网络的输入,其中实体的上下文单词做为外部记忆 memory,实体单词作为第一个隐藏层的输入;

(2)       第一个隐藏层使用包括两个部分,其一是注意力网络,得到 memory 中每个单词相对于实体单词的重要性权重,其二是对对输入的分线性变换,两者相连接作为下一个隐藏层的输入;

(3)       后面的几个隐藏层同第一个隐藏层的结构类似,多层累积形成深度的记忆网络,从而提取出 memory 中更抽象的实体信息;

(4)       使用卷积神经网对句子提取特征,得到句子的特征表示;

(5)       将记忆神经网络与卷积神经网络的输出相结合,得到句子的最终表示。

 

  • 关系级别的记忆网络

关系级别的记忆网络如上如右下角所示,以句子向量的集合作为输入,对于每一种关系输出一种句子集合的表示。关系级别的记忆网络的模型流程为:

(1)       将句子向量序列输入第一层注意力网络,得到每个句子的重要性权重,并对句子向量加权求和,得到句子集合的初步表示;

(2)       使用各种关系的初步集合表示输入关系级别的注意力网络,学习各种关系间的依存关系,得到句子集合相对于每一种关系的表示。

 

实验

本文实验采用的数据集是在(Rediel et al, 2010)数据集基础上过滤的数据集,数据集的情况如下表:

文章进行了heldout实验,并与当时已有的其他方法做对比,结果如下图,可见本文的方法整体优于当前已有的其他方法。

文章为了验证两个记忆网络的作用,分别去掉两个记忆网络进行试验,结果如下图所示,可见去掉任何一个记忆网络都会降低模型的性能,因此两中记忆网络对模型的提升都是重要的。


论文笔记整理:刘兵,东南大学博士,研究方向为自然语言处理、机器学习。




OpenKG.CN


中文开放知识图谱(简称OpenKG.CN)旨在促进中文知识图谱数据的开放与互联,促进知识图谱和语义技术的普及和广泛应用。

转载须知:转载需注明来源“OpenKG.CN”、作者及原文链接。如需修改标题,请注明原标题。

点击阅读原文,进入 OpenKG 博客。

登录查看更多
2

相关内容

【清华大学】图随机神经网络,Graph Random Neural Networks
专知会员服务
156+阅读 · 2020年5月26日
【ICLR2020-】基于记忆的图网络,MEMORY-BASED GRAPH NETWORKS
专知会员服务
110+阅读 · 2020年2月22日
【AAAI2020知识图谱论文概述】Knowledge Graphs @ AAAI 2020
专知会员服务
134+阅读 · 2020年2月13日
论文浅尝 | Global Relation Embedding for Relation Extraction
开放知识图谱
12+阅读 · 2019年3月3日
论文浅尝 | 基于Universal Schema与Memory Network的知识+文本问答
论文浅尝 | Zero-Shot Transfer Learning for Event Extraction
开放知识图谱
26+阅读 · 2018年11月1日
论文浅尝 | Know-Evolve: Deep Temporal Reasoning for Dynamic KG
开放知识图谱
36+阅读 · 2018年3月30日
论文浅尝 | Improved Neural Relation Detection for KBQA
开放知识图谱
13+阅读 · 2018年1月21日
论文浅尝 | Distant Supervision for Relation Extraction
开放知识图谱
4+阅读 · 2017年12月25日
论文浅尝 | Reinforcement Learning for Relation Classification
开放知识图谱
9+阅读 · 2017年12月10日
Arxiv
3+阅读 · 2019年3月1日
Rapid Customization for Event Extraction
Arxiv
7+阅读 · 2018年9月20日
Bidirectional Attention for SQL Generation
Arxiv
4+阅读 · 2018年6月21日
Arxiv
10+阅读 · 2018年4月19日
VIP会员
相关VIP内容
【清华大学】图随机神经网络,Graph Random Neural Networks
专知会员服务
156+阅读 · 2020年5月26日
【ICLR2020-】基于记忆的图网络,MEMORY-BASED GRAPH NETWORKS
专知会员服务
110+阅读 · 2020年2月22日
【AAAI2020知识图谱论文概述】Knowledge Graphs @ AAAI 2020
专知会员服务
134+阅读 · 2020年2月13日
相关资讯
论文浅尝 | Global Relation Embedding for Relation Extraction
开放知识图谱
12+阅读 · 2019年3月3日
论文浅尝 | 基于Universal Schema与Memory Network的知识+文本问答
论文浅尝 | Zero-Shot Transfer Learning for Event Extraction
开放知识图谱
26+阅读 · 2018年11月1日
论文浅尝 | Know-Evolve: Deep Temporal Reasoning for Dynamic KG
开放知识图谱
36+阅读 · 2018年3月30日
论文浅尝 | Improved Neural Relation Detection for KBQA
开放知识图谱
13+阅读 · 2018年1月21日
论文浅尝 | Distant Supervision for Relation Extraction
开放知识图谱
4+阅读 · 2017年12月25日
论文浅尝 | Reinforcement Learning for Relation Classification
开放知识图谱
9+阅读 · 2017年12月10日
Top
微信扫码咨询专知VIP会员