Temporal knowledge graph (TKG) reasoning is a crucial task that has gained increasing research interest in recent years. Most existing methods focus on reasoning at past timestamps to complete the missing facts, and there are only a few works of reasoning on known TKGs to forecast future facts. Compared with the completion task, the forecasting task is more difficult that faces two main challenges: (1) how to effectively model the time information to handle future timestamps? (2) how to make inductive inference to handle previously unseen entities that emerge over time? To address these challenges, we propose the first reinforcement learning method for forecasting. Specifically, the agent travels on historical knowledge graph snapshots to search for the answer. Our method defines a relative time encoding function to capture the timespan information, and we design a novel time-shaped reward based on Dirichlet distribution to guide the model learning. Furthermore, we propose a novel representation method for unseen entities to improve the inductive inference ability of the model. We evaluate our method for this link prediction task at future timestamps. Extensive experiments on four benchmark datasets demonstrate substantial performance improvement meanwhile with higher explainability, less calculation, and fewer parameters when compared with existing state-of-the-art methods.


翻译:时间知识图( TKG) 推理是一项至关重要的任务,近年来研究兴趣越来越浓厚。 多数现有方法侧重于过去时间戳的推理,以完成缺失的事实,而对于已知的TKG的推理,只有几部关于已知的TKG的推理工作可以预测未来的事实。 与完成任务相比,预测任务更困难,面临两大挑战:(1) 如何有效地模拟处理未来时间戳的时间信息?(2) 如何进行感应推导,以处理随着时间推移而出现的先前看不见的实体? 为了应对这些挑战,我们建议了第一个强化的预测学习方法。 具体地说, 代理人用历史知识图的快照旅行寻找答案。 我们的方法定义了一个相对的时间编码功能, 来捕捉时间间隔信息, 我们根据Drichlet的分布设计了一个新的时间定型奖励, 来指导模型的学习。 此外, 我们为隐形实体提出了一个新的表述方法, 以提高模型的感应感测能力。 我们在未来的时间戳中评估我们这一联系的预测任务的方法。 在四个基准数据集上进行广泛的实验, 在比较时, 比较时略时数比较时, 比较时, 比较时, 比较时差时, 比较时, 我们用较小的参数, 比较方法显示显著的参数, 显示显著改进。

0
下载
关闭预览

相关内容

【图与几何深度学习】Graph and geometric deep learning,49页ppt
专知会员服务
123+阅读 · 2020年9月8日
专知会员服务
115+阅读 · 2019年12月24日
Stabilizing Transformers for Reinforcement Learning
专知会员服务
58+阅读 · 2019年10月17日
Multi-Task Learning的几篇综述文章
深度学习自然语言处理
15+阅读 · 2020年6月15日
17篇必看[知识图谱Knowledge Graphs] 论文@AAAI2020
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
27+阅读 · 2019年5月18日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
16+阅读 · 2018年12月24日
利用动态深度学习预测金融时间序列基于Python
量化投资与机器学习
18+阅读 · 2018年10月30日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
已删除
将门创投
3+阅读 · 2017年11月3日
Arxiv
3+阅读 · 2019年3月26日
Arxiv
3+阅读 · 2018年8月27日
VIP会员
相关资讯
Multi-Task Learning的几篇综述文章
深度学习自然语言处理
15+阅读 · 2020年6月15日
17篇必看[知识图谱Knowledge Graphs] 论文@AAAI2020
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
27+阅读 · 2019年5月18日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
16+阅读 · 2018年12月24日
利用动态深度学习预测金融时间序列基于Python
量化投资与机器学习
18+阅读 · 2018年10月30日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
已删除
将门创投
3+阅读 · 2017年11月3日
Top
微信扫码咨询专知VIP会员