Recently, there has been a surge of interest in learning representation of graph-structured data that are dynamically evolving. However, current dynamic graph learning methods lack a principled way in modeling temporal, multi-relational, and concurrent interactions between nodes---a limitation that is especially problematic for the task of temporal knowledge graph reasoning, where the goal is to predict unseen entity relationships (i.e., events) over time. Here we present Recurrent Event Network (RE-Net)---a novel neural architecture for modeling complex event sequences---which consists of a recurrent event encoder and a neighborhood aggregator. The event encoder employs an RNN to capture (subject, relation) or (object, relation)-specific patterns from historical, multi-relational interactions between entities. The neighborhood aggregator summarizes concurrent, multi-hop entity interactions within each time stamp. An output layer is designed for predicting forthcoming events. Extensive experiments on temporal link prediction over four public TKG datasets demonstrate the effectiveness and strength of RE-Net, especially on multi-step inference over future time stamps. Code and data are published at the https://github.com/INK-USC/RE-Net {\text{GitHub repository}}.


翻译:最近,人们开始对学习动态演变中的图表结构数据表示的兴趣激增。然而,当前动态图表学习方法在模拟时间、多关系以及节点-(目标、目标、关系)之间同时互动方面缺乏原则性的方式,这种限制对于时间知识图推理的任务特别成问题,目的是预测无形的实体关系(即事件)随时间推移而变化。我们在这里介绍经常性事件网络(RE-Net)-建模复杂事件序列的新型神经结构-由经常性事件编码器和邻里聚合器组成。事件编码器使用一个RNN(主题、关系)或(目标、关系)实体之间历史、多关系互动的具体模式来捕捉(主题、关系、关系)。邻里聚合器总结每个时间戳内并行的、多机会的实体互动关系。一个产出层用于预测即将发生的事件。对四个公共TKG-US数据集进行的时间链接预测进行广泛的实验,展示了RENet的有效性和实力,特别是在对未来时间邮票的多步骤推断上。G-C代码和数据公布于 http/rbx/stext。

6
下载
关闭预览

相关内容

IFIP TC13 Conference on Human-Computer Interaction是人机交互领域的研究者和实践者展示其工作的重要平台。多年来,这些会议吸引了来自几个国家和文化的研究人员。官网链接:http://interact2019.org/
最新BERT相关论文清单,BERT-related Papers
专知会员服务
52+阅读 · 2019年9月29日
内涵网络嵌入:Content-rich Network Embedding
我爱读PAMI
4+阅读 · 2019年11月5日
论文浅尝 | 面向时序知识图谱推理的循环事件网络
开放知识图谱
78+阅读 · 2019年9月22日
Transferring Knowledge across Learning Processes
CreateAMind
28+阅读 · 2019年5月18日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
「知识表示学习」专题论文推荐 | 每周论文清单
论文浅尝 | Leveraging Knowledge Bases in LSTMs
开放知识图谱
6+阅读 · 2017年12月8日
可解释的CNN
CreateAMind
17+阅读 · 2017年10月5日
【推荐】用Tensorflow理解LSTM
机器学习研究会
36+阅读 · 2017年9月11日
Arxiv
24+阅读 · 2018年10月24日
Arxiv
9+阅读 · 2018年10月18日
Arxiv
4+阅读 · 2018年7月4日
Arxiv
15+阅读 · 2018年4月5日
VIP会员
相关资讯
内涵网络嵌入:Content-rich Network Embedding
我爱读PAMI
4+阅读 · 2019年11月5日
论文浅尝 | 面向时序知识图谱推理的循环事件网络
开放知识图谱
78+阅读 · 2019年9月22日
Transferring Knowledge across Learning Processes
CreateAMind
28+阅读 · 2019年5月18日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
「知识表示学习」专题论文推荐 | 每周论文清单
论文浅尝 | Leveraging Knowledge Bases in LSTMs
开放知识图谱
6+阅读 · 2017年12月8日
可解释的CNN
CreateAMind
17+阅读 · 2017年10月5日
【推荐】用Tensorflow理解LSTM
机器学习研究会
36+阅读 · 2017年9月11日
相关论文
Arxiv
24+阅读 · 2018年10月24日
Arxiv
9+阅读 · 2018年10月18日
Arxiv
4+阅读 · 2018年7月4日
Arxiv
15+阅读 · 2018年4月5日
Top
微信扫码咨询专知VIP会员