作为人工智能的一个领域,机器推理(MR)主要使用符号手段来形式化和模拟抽象推理。早期MR的研究已经开始对可解释的人工智能(XAI)进行调查,这可以说是当今人工智能界最关心的问题之一。从那时起,关于可解释的MR以及人工智能其他领域可解释的MR方法的工作一直在继续。它在现代的MR branch中尤其有效,比如论证,约束和逻辑编程,规划。在此,我们旨在对MR可解释性技术和研究进行有选择性的概述,希望从这一长期研究中获得的见解能够很好地补充目前的XAI景观。这份文件报告了我们在MR解释能力方面的工作进展。

https://www.zhuanzhi.ai/paper/37288afae45ec5978cd94235cc8add1a

成为VIP会员查看完整内容
34

相关内容

机器学习的可解释性
专知会员服务
175+阅读 · 2020年8月27日
【CIKM2020】神经逻辑推理,Neural Logic Reasoning
专知会员服务
50+阅读 · 2020年8月25日
知识图谱简史:从1950到2019
专知
25+阅读 · 2019年12月2日
AI可解释性文献列表
专知
42+阅读 · 2019年10月7日
【资源推荐】AI可解释性资源汇总
专知
47+阅读 · 2019年4月24日
人工智能能够预测地震吗?
人工智能学家
7+阅读 · 2018年12月10日
Arxiv
14+阅读 · 2020年9月1日
Metrics for Explainable AI: Challenges and Prospects
Arxiv
4+阅读 · 2018年12月11日
VIP会员
相关VIP内容
机器学习的可解释性
专知会员服务
175+阅读 · 2020年8月27日
【CIKM2020】神经逻辑推理,Neural Logic Reasoning
专知会员服务
50+阅读 · 2020年8月25日
微信扫码咨询专知VIP会员