笔记整理:王大壮
论文链接:https://aclanthology.org/2021.acl-long.344.pdf
动机
句法信息,特别是依存树,已经被广泛应用于关系提取,以更好地分析与给定实体相关联的上下文信息。然而大多数现有的研究都饱受依赖树噪声的影响,特别是当它们自动生成时。由于直接利用依存信息可能会引入混淆,所以需要对依存信息进行筛选。为此,本文通过注意力图卷积神经网络(A-GCN)来辨别不同词依存的重要性,同时考虑到不同依存关系类型对关系分类的作用,在模型中也引入了依存关系类型的信息。
论文方法
a)通过依存句法树构建邻接矩阵A(存储两次之间是否存在依存关系:两词之间有关系为1,没关系为0);
b)构建依存类别邻接矩阵T(存储两词之间依存关系类别,比如nsubj)
c)对于每层A-GCN网络,给定上一层第i个词(表示为
2.使用A-GCN的关系分类
(3)接着用整句文本(
(4)最后应用一个softmax函数来预测两个实体之间的关系:
实验
1)使用A-GCN的模型均比BERT-base和BERT-large要好。
2)在所有的数据集同样的设置下,A-GCN均比GAT和GCN的基线要好。
3)对于使用A-GCN的模型,进行依存剪枝L+G的效果均比Full好。
4)使用A-GCN的模型在两层时达到最佳性能。
2.使用上述实验得到的最佳模型设置和之前工作的比较:
可以看到提出的模型达到了最佳效果。
4.消融实验(注意力机制+依存类型)
该论文提出了一种基于注意力图卷积神经网络来利用依存信息用于关系抽取的方法,通过注意力机制来对依存关系及其类型进行加权,从而更好地区分重要的依存信息并加以利用,使得A-GCN可以动态地学习不同的依存关系并剪枝掉无用的依存信息。在两个英文基准数据集上的实验结果证明了提出方法的有效性。
OpenKG
OpenKG(中文开放知识图谱)旨在推动以中文为核心的知识图谱数据的开放、互联及众包,并促进知识图谱算法、工具及平台的开源开放。
点击阅读原文,进入 OpenKG 网站。