点击上方,选择星标或置顶,每天给你送干货!
阅读大概需要10分钟
跟随小博主,每天进步一丢丢
作者:Chevalier
原文链接:https://zhuanlan.zhihu.com/p/75745899
编辑:zenRRan (深度学习自然语言处理公众号)
已获作者授权,禁止二次转载
抽取实体关系三元组(BarackObama, PresidentOf, UnitedStates)在信息抽取中扮演着重要角色,尽管有很多关于这方面的研究,但是目前还没有一个统一的框架完全解决以下三个问题:
端到端的联合抽取实体及其关系;
重叠关系的预测;
考虑到关系之间的交互,特别是重叠关系之间的交互。
传统的方法是基于流水线的,先进行NER,然后再RE。该方法忽略了两个任务之间的相关性。考虑到上述方法的局限性,紧接着就提出了实体关系联合抽取的模型。刚开始的联合模型大多数严重依赖于特征工程,费时费力。
随着深度学习的兴起,基于NN的自动构建特征模型广泛用于关系抽取中。比如CNN、LSTM、tree-LSTM等。但是这些方法并不是端到端地联合抽取实体及关系,他们假定实体已经给定。
关系抽取的另一个挑战是如何考虑关系之间交互的问题,特别是重叠关系之间的交互。比如,(BarackObama, PresidentOf, UnitedStates) 可以被 (BarackObama, Governance, UnitedStates)推断得到,这是关系重叠的其中一种情形,作者称之为EntityPairOverlap。另外一种情况是(BarackObama, PresidentOf, UnitedStates)可以被(BarackObama, LiveIn, WhiteHouse)和(WhiteHouse, PresidentialPalace, UnitedStates)推断得到,这是关系重叠的另外一种情形,称之为SingleEntityOverlap。关系重叠是联合抽取任务的一大难点,事实上,17年ACL基于新颖的标志机制就完全放弃了关系重叠的问题。
17年ACL那篇没有考虑关系重叠的问题
目前大多数方法都没有考虑关系之间的交互性。
GCN抽取邻居节点的特征,并且将一个节点的信息传播到该节点最近的邻居节点,如图1所示,通过堆叠GCN层,GCN就可以捕捉到每个节点的区域特征。
GCN层通过如下公式计算新节点的特征,其实就是对邻居节点做一次线性变换然后求和,将求和的结果再过一次非线性变换得到目标节点的特征。其中u是目标节点,N(u)表示u的邻居节点,包括u本身,
表示节点v第l层的特征:
包含两阶段预测的GraphRel整体结构图如图2所示。在第一阶段,我们通过Bi-RNN和GCN抽取顺序和区域依赖特征。然后我们就可以预测实体和每个单词对之间的关系。在第二阶段,基于第一阶段的预测,我们对每种关系构建了完整的关系图,然后我们使用GCN融合每种关系的信息,并且考虑到了实体和关系之间的交互信息。
为了考虑到顺序和区域的依赖信息,我们首先通过Bi-RNN抽取顺序依赖特征,然后使用Bi-GCN进一步抽取区域依赖特征,最后我们就可以预测实体和每个单词对之间的关系。
以词向量和对应的词性标签向量作为原始的输入,然后经过Bi-LSTM抽取顺序依赖特征。
考虑到原始的句子是一个序列,没有显示的图结构,我们使用依存解析器为输入句子构造一颗依存树。我们使用依存树作为输入句子的邻接矩阵,接着通过GCN抽取区域依赖特征。
原始的GCN是无方向的,为了考虑到出入的词特征,这里使用了Bi-GCN:
由于微信平台算法改版,公号内容将不再以时间排序展示,如果大家想第一时间看到我们的推送,强烈建议星标我们和给我们多点点【在看】。星标具体步骤为:
(1)点击页面最上方“深度学习自然语言处理”,进入公众号主页。
(2)点击右上角的小点点,在弹出页面点击“设为星标”,就可以啦。
感谢支持,比心。
投稿或交流学习,备注:
昵称-学校(公司)-方向,进入DL&NLP交流群。
方向有很多:
机器学习、深度学习,python,情感分析、意见挖掘、句法分析、机器翻译、人机对话、知识图谱、语音识别等。
推荐两个专辑给大家:
专辑 | 李宏毅人类语言处理2020笔记
专辑 | NLP论文解读