Knowledge graphs (KG) have become increasingly important to endow modern recommender systems with the ability to generate traceable reasoning paths to explain the recommendation process. However, prior research rarely considers the faithfulness of the derived explanations to justify the decision making process. To the best of our knowledge, this is the first work that models and evaluates faithfully explainable recommendation under the framework of KG reasoning. Specifically, we propose neural logic reasoning for explainable recommendation (LOGER) by drawing on interpretable logical rules to guide the path reasoning process for explanation generation. We experiment on three large-scale datasets in the e-commerce domain, demonstrating the effectiveness of our method in delivering high-quality recommendations as well as ascertaining the faithfulness of the derived explanation.


翻译:知识图表(KG)对于赋予现代建议系统以能够产生可追踪的推理路径来解释建议过程已变得日益重要。然而,以前的研究很少考虑衍生解释的准确性,以证明决策过程的合理性。据我们所知,这是模型和评估在KG推理框架内忠实解释的建议的第一份工作。具体地说,我们提出可解释建议(LOGER)的神经逻辑逻辑推理,方法是利用可解释的逻辑规则来指导解释推理过程。我们试验了电子商务领域的三个大规模数据集,展示了我们提出高质量建议的方法的有效性,以及确定推理解释的准确性。

1
下载
关闭预览

相关内容

Processing 是一门开源编程语言和与之配套的集成开发环境(IDE)的名称。Processing 在电子艺术和视觉设计社区被用来教授编程基础,并运用于大量的新媒体和互动艺术作品中。
【机器推理可解释性】Machine Reasoning Explainability
专知会员服务
35+阅读 · 2020年9月3日
【CIKM2020】神经逻辑推理,Neural Logic Reasoning
专知会员服务
51+阅读 · 2020年8月25日
人工智能 | CCF推荐期刊专刊约稿信息6条
Call4Papers
5+阅读 · 2019年2月18日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
大数据 | 顶级SCI期刊专刊/国际会议信息7条
Call4Papers
10+阅读 · 2018年12月29日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
推荐中的序列化建模:Session-based neural recommendation
机器学习研究会
18+阅读 · 2017年11月5日
可解释的CNN
CreateAMind
17+阅读 · 2017年10月5日
【推荐】Python机器学习生态圈(Scikit-Learn相关项目)
机器学习研究会
6+阅读 · 2017年8月23日
Arxiv
13+阅读 · 2021年5月3日
Arxiv
14+阅读 · 2020年9月1日
Arxiv
12+阅读 · 2019年2月26日
Arxiv
7+阅读 · 2018年1月31日
VIP会员
相关VIP内容
【机器推理可解释性】Machine Reasoning Explainability
专知会员服务
35+阅读 · 2020年9月3日
【CIKM2020】神经逻辑推理,Neural Logic Reasoning
专知会员服务
51+阅读 · 2020年8月25日
相关论文
Arxiv
13+阅读 · 2021年5月3日
Arxiv
14+阅读 · 2020年9月1日
Arxiv
12+阅读 · 2019年2月26日
Arxiv
7+阅读 · 2018年1月31日
Top
微信扫码咨询专知VIP会员