Approaches based on refinement operators have been successfully applied to class expression learning on RDF knowledge graphs. These approaches often need to explore a large number of concepts to find adequate hypotheses. This need arguably stems from current approaches relying on myopic heuristic functions to guide their search through an infinite concept space. In turn, deep reinforcement learning provides effective means to address myopia by estimating how much discounted cumulated future reward states promise. In this work, we leverage deep reinforcement learning to accelerate the learning of concepts in $\mathcal{ALC}$ by proposing DRILL -- a novel class expression learning approach that uses a convolutional deep Q-learning model to steer its search. By virtue of its architecture, DRILL is able to compute the expected discounted cumulated future reward of more than $10^3$ class expressions in a second on standard hardware. We evaluate DRILL on four benchmark datasets against state-of-the-art approaches. Our results suggest that DRILL converges to goal states at least 2.7$\times$ faster than state-of-the-art models on all benchmark datasets. We provide an open-source implementation of our approach, including training and evaluation scripts as well as pre-trained models.


翻译:基于完善操作者的方法被成功地应用于在RDF知识图表上进行课堂表达学习。这些方法往往需要探索大量概念,以找到适当的假设。这种需要可以说来自目前依靠近视超光速功能指导其通过无限的概念空间进行搜索的方法。反过来,深层强化学习通过估计未来累积奖励国家的前景,为解决近视提供了有效手段。在这项工作中,我们利用深度强化学习来加速以美元(mathcal{ALC})学习概念的学习,方法是提出DRIL -- -- 一种新型的课堂表达学习方法,使用进化式深Q学习模型来指导搜索。DRILL凭借其结构,能够计算出预期的折扣累积未来在标准硬件第二版上超过10美3美元的班级表现。我们根据最先进的方法评估四个基准数据集。我们的结果显示,DRILLL会将目标组合到至少2.7美元(时间),这比所有基准数据集的状态模型更快。我们以开放的模型的形式,包括以开放的版本的形式,提供我们经过培训的原始模型。

0
下载
关闭预览

相关内容

深度学习界圣经“花书”《Deep Learning》中文版来了
专知会员服务
232+阅读 · 2019年10月26日
Stabilizing Transformers for Reinforcement Learning
专知会员服务
57+阅读 · 2019年10月17日
Keras François Chollet 《Deep Learning with Python 》, 386页pdf
专知会员服务
149+阅读 · 2019年10月12日
强化学习最新教程,17页pdf
专知会员服务
174+阅读 · 2019年10月11日
【SIGGRAPH2019】TensorFlow 2.0深度学习计算机图形学应用
专知会员服务
39+阅读 · 2019年10月9日
Transferring Knowledge across Learning Processes
CreateAMind
27+阅读 · 2019年5月18日
RL 真经
CreateAMind
5+阅读 · 2018年12月28日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
16+阅读 · 2018年12月24日
【学习】Hierarchical Softmax
机器学习研究会
4+阅读 · 2017年8月6日
强化学习族谱
CreateAMind
26+阅读 · 2017年8月2日
已删除
将门创投
9+阅读 · 2017年7月28日
强化学习 cartpole_a3c
CreateAMind
9+阅读 · 2017年7月21日
Arxiv
6+阅读 · 2021年6月24日
Arxiv
49+阅读 · 2021年5月9日
Learning to Weight for Text Classification
Arxiv
8+阅读 · 2019年3月28日
Arxiv
3+阅读 · 2018年10月5日
Paraphrase Generation with Deep Reinforcement Learning
Arxiv
5+阅读 · 2018年6月12日
VIP会员
相关VIP内容
深度学习界圣经“花书”《Deep Learning》中文版来了
专知会员服务
232+阅读 · 2019年10月26日
Stabilizing Transformers for Reinforcement Learning
专知会员服务
57+阅读 · 2019年10月17日
Keras François Chollet 《Deep Learning with Python 》, 386页pdf
专知会员服务
149+阅读 · 2019年10月12日
强化学习最新教程,17页pdf
专知会员服务
174+阅读 · 2019年10月11日
【SIGGRAPH2019】TensorFlow 2.0深度学习计算机图形学应用
专知会员服务
39+阅读 · 2019年10月9日
相关资讯
Transferring Knowledge across Learning Processes
CreateAMind
27+阅读 · 2019年5月18日
RL 真经
CreateAMind
5+阅读 · 2018年12月28日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
16+阅读 · 2018年12月24日
【学习】Hierarchical Softmax
机器学习研究会
4+阅读 · 2017年8月6日
强化学习族谱
CreateAMind
26+阅读 · 2017年8月2日
已删除
将门创投
9+阅读 · 2017年7月28日
强化学习 cartpole_a3c
CreateAMind
9+阅读 · 2017年7月21日
相关论文
Top
微信扫码咨询专知VIP会员