实体关系的联合抽取总结

2020 年 7 月 12 日 深度学习自然语言处理

点击上方,选择星标置顶,每天给你送干货

阅读大概需要13分钟

跟随小博主,每天进步一丢丢


作者:Chevalier

原文链接:https://zhuanlan.zhihu.com/p/74886839

编辑:深度学习自然语言处理公众号

已获作者授权,禁止二次转载




数据集



  • WebNLG

  • CoNLL04

  • DREC

  • NYT




一、2014



Incremental Joint Extraction of Entity Mentions and Relations. ACL (1) 2014 :
动机
方法 :基于特征工程的结构化系统
问题 :需要设计复杂的特征工程,严重依赖于NLP工具,这可能会导致错误传播问题。

Modeling Joint Entity and Relation Extraction with Table Representation. EMNLP 2014
动机
方法 :基于特征工程的结构化系统
问题 :需要设计复杂的特征工程,严重依赖于NLP工具,这可能会导致错误传播问题。



二、2016



End-to-End Relation Extraction using LSTMs on Sequences and Tree  Structures. ACL (1) 2016

动机 :在关系抽取中词序信息和树结构信息是可以互补的。比如,在句子“This is …, one U.S. source said”中,词之间的依存信息不足以预测‘source’和‘U.S.’之间的‘ORG-AFF’关系。很多传统的基于特征工程的关系分类方法从序列和解析树中抽取特征。然而,之前基于RNN的模型仅关注于这些语言结构的一种。
方法:因此,作者提出了一种新颖的端到端模型,基于词序信息和依存树结构信息来抽取实体间的关系。该模型使用了双向的LSTM和tree-LSTM结构,同时抽取实体及其关系。
问题 :本文论文题目是端到端的关系抽取,但利用了NER作为辅助任务帮助关系抽取,可以说是实体和关系联合抽取的开山之作,所以往后的论文都会拿出来吊打一波。预测实体时忽略了标签之间的长依赖关系, (Y. H. Suncong Zheng n.d.)利用LSTM解码器解决了标签的长依赖问题[9];预测好实体后,两两配对后输入到关系分类模块中识别它们之间的关系,因为不存在关系的实体对也输入到关系分类模块中,造成信息冗余,增加了错误率, (Suncong Zheng 2017)提出了新颖的标注机制解决了信息冗余的问题[8]。
代码 https://github.com/tticoin/LSTM-ER



三、2017



Joint Extraction of Entities and Relations Based on a Novel Tagging Scheme. ACL (1) 2017
动机 :(Makoto Miwa 2016)提出的联合模型可以在一个模型中通过共享参数表示实体及关系,但他们分离地抽取实体和关系并且产生信息冗余[6]。
方法 :提出了一个新颖的标注机制,将联合抽取问题转换为序列标注问题。
问题 :生成标注序列后,将标签合并为实体关系三元组时采用就近组合的方法,存在一些问题;无法解决关系重叠问题。
代码 https://github.com/zsctju/triplets-extraction
https://github.com/gswycf/Joint-Extraction-of-Entities-and-Relations-Based-on-a-Novel-Tagging-Scheme

CoType: Joint Extraction of Typed Entities and Relations with Knowledge Bases. WWW 2017 :
动机
方法 :基于特征工程的结构化系统
问题 :需要设计复杂的特征工程,严重依赖于NLP工具,这可能会导致错误传播问题。

Joint entity and relation extraction based on a hybrid neural network. Neurocomputing 2017
动机 :(Makoto Miwa 2016)提出了基于神经网络的端到端实体和关系抽取模型。然而,当检测实体时,他们使用一个NN结构来预测实体标签,忽略了实体标签之间的长距离依赖关系[6]。
方法 :输入句子通过公用的Embedding层和BiLSTM层,然后分别使用一个LSTM来进行NER和一个CNN来进行RC。
问题 :本文并不是完全意义上的统一,还是要先NER,然后将预测的实体两两配对再进行RC,这样会产生信息冗余,可以与2017ACL有一篇基于标注策略的联合抽取进行对比。本文对R(e_1,e_2)和对R(e_2,e_1)的分类有点模糊。

Global Normalization of Convolutional Neural Networks for Joint Entity and Relation Classification. EMNLP 2017
动机 :pipeline方法忽略了两个子任务的相关性
方法 :采用不同的CNN分别建模实体和关系表示,利用线性链CRF建模了输出的实体和关系之间的依赖性。
问题 :从模型和代码中都可以知道,训练集和测试集首先利用候选的实体对将句子拆成不同部分,然后输入到模型中。但事实上,对于测试集,我们是不知道候选的实体对的。
代码
https://github.com/heikeadel/global_normalization

Going out on a limb: Joint Extraction of Entity Mentions and Relations without Dependency Trees. ACL 2017
动机 :(Makoto Miwa 2016)提出的模型主要取决于对依赖树的访问,将其限制为句子级别提取以及存在(良好)依赖解析器的语言[6]。而且,他们的模型不共同提取实体和关系; 他们首先提取所有实体,然后对句子中的所有实体对进行关系分类。
方法 :一边识别实体,一边抽取关系,具体来说是当前位置实体识别出来后,通过比较它与之前所有位置实体的相似度(attention机制),来识别出当前实体与其他实体的关系。
问题
代码 https://github.com/Luka0612/JEAR



三、2018



Adversarial training for multi-context joint entity and relation extraction. EMNLP 2018 :
动机 :(Christian Szegedy 2014)观察到对一些模型的输入的有意的小规模扰动(比如对抗样本)可能导致不正确的决定(具有高置信度)[2]。(Ian Goodfellow 2015)提出了对抗训练(用于图像识别)作为正则化方法,混合原始样本和对抗样本来增强模型的鲁棒性[5]。虽然AT已经被用于NLP任务(比如,文本分类),但据作者所知,AT是第一次用于两个相关任务的联合学习中。
方法 :在原始样本的Embedding中加入一个小的扰动值,得到对抗样本,然后混合原始样本和对抗样本一起训练模型。
问题:该模型在进行关系分类时,只是简单地将两个单词的隐藏层表示相加得到表示这两个单词的关系向量,这种方法不能很好地表示两个单词的关系。
代码
https://github.com/bekou/multihead_joint_entity_relation_extraction

Joint entity recognition and relation extraction as a multi-head selection problem. Expert Syst .
动机 :[3][4][6][7]这些工作检查关系提取的实体对时,并不是直接对整个句子建模。这意味着不考虑同一句子中其他实体对的关系 - 这可能有助于确定特定对的关系类型。(Arzoo Katiyar 2017)直接对整个句子建模,但是无法处理多关系问题[1]。
方法 :首先进行命名实体识别,然后对句中的每个单词都与句中的所有单词判断关系。
问题 :该模型在进行关系分类时,只是简单地将两个单词的隐藏层表示相加得到表示这两个单词的关系向量,这种方法不能很好地表示两个单词的关系。
代码
https://github.com/bekou/multihead_joint_entity_relation_extraction

Joint Extraction of Entities and Relations Based on a Novel Graph Scheme. IJCAI 2018
动机 :大多数联合方法通过参数共享分开抽取实体及其关系,而不是共同decoding。这会导致输出的实体和关系的信息未能完全利用,因为没有显示的特征来建模输出之间的依赖。(F. W. Suncong Zheng 2017)是唯一的另外,设计了一个新颖的标注机制将联合抽取任务转换为序列标注问题[8]。但是该方法仅间接捕获输出结构对应关系,并且无法解决关系重叠问题。
方法 :作者通过设计一个有向图机制将联合抽取任务转换为一个有向图问题,使用基于转移的解析框架来解决。
问题 :关系重叠可以分为两类:第一类是一个实体和多个实体之间存在关系;第二类是同一实体对存在多个关系。从作者介绍的方法看,只解决了第一类关系重叠问题。
代码 https://github.com/hitwsl/joint-entity-relation



说个正事哈



由于微信平台算法改版,公号内容将不再以时间排序展示,如果大家想第一时间看到我们的推送,强烈建议星标我们和给我们多点点【在看】。星标具体步骤为:

(1)点击页面最上方深度学习自然语言处理”,进入公众号主页。

(2)点击右上角的小点点,在弹出页面点击“设为星标”,就可以啦。

感谢支持,比心



引用
[1]. Arzoo Katiyar, Claire Cardie. "Going out on a limb: Joint Extraction of Entity Mentions and Relations  without Dependency Trees." ACL, 2017: 917-928.
[2]. Christian Szegedy, Wojciech Zaremba, Ilya Sutskever, Joan Bruna, Dumitru Erhan, Ian J. Goodfellow, Rob Fergus. "Intriguing properties of neural networks." ICLR, 2014.
[3]. Fei Li, Meishan Zhang, Guohong Fu, Donghong Ji. "A neural joint model for entity and relation extraction from biomedical text." BMC Bioinformatics 18, 2017: 198:1-198:11.
[4]. Heike Adel, Hinrich Schütze. "Global normalization of convolutional neural networks for joint entity and relation classification." EMNLP, 2017: 1723-1729.
[5]. Ian Goodfellow, Jonathon Shlens, and Christian Szegedy. "Explaining and harnessing adversarial examples." ICLR, 2015.
[6]. Makoto Miwa,  Mohit Bansal. "End-to-End Relation Extraction using LSTMs on Sequences and Tree Structures." ACL, 2016.
[7]. Pankaj Gupta, Hinrich Schütze, Bernt Andrassy. "Table filling multi-task recurrent neural network for joint entity and relation extraction." COLING, 2016: 2537-2547.
[8]. Suncong Zheng, Feng Wang, Hongyun Bao, Yuexing Hao, Peng Zhou, Bo Xu. "Joint Extraction of Entities and Relations Based on a Novel Tagging Scheme." ACL (1), 2017: 1227-1236.
[9]. Suncong Zheng, Yuexing Hao, Dongyuan Lu, Hongyun Bao, Jiaming Xu, Hongwei Hao, Bo Xu. "J




投稿或交流学习,备注: 昵称-学校(公司)-方向,进入DL&NLP交流群。
方向有很多: 机器学习、深度学习,python,情感分析、意见挖掘、句法分析、机器翻译、人机对话、知识图谱、语音识别等
记得备注呦


推荐两个专辑给大家:

专辑 | 李宏毅人类语言处理2020笔记

专辑 | NLP论文解读



登录查看更多
18

相关内容

科技大数据知识图谱构建方法及应用研究综述
专知会员服务
132+阅读 · 2020年8月12日
实体关系抽取方法研究综述
专知会员服务
174+阅读 · 2020年7月19日
注意力图神经网络的多标签文本分类
专知会员服务
111+阅读 · 2020年3月28日
17篇知识图谱Knowledge Graphs论文 @AAAI2020
专知会员服务
168+阅读 · 2020年2月13日
知识图谱本体结构构建论文合集
专知会员服务
102+阅读 · 2019年10月9日
论文浅尝 | 使用循环神经网络的联合事件抽取
开放知识图谱
25+阅读 · 2019年4月28日
论文浅尝 | 基于知识库的类型实体和关系的联合抽取
开放知识图谱
35+阅读 · 2018年12月9日
论文浅尝 | 多内容实体和关系联合抽取的对抗训练
开放知识图谱
42+阅读 · 2018年12月4日
Arxiv
10+阅读 · 2018年4月19日
VIP会员
Top
微信扫码咨询专知VIP会员