知识图谱在可解释人工智能中的作用,附81页ppt

2019 年 11 月 11 日 专知

导读

可解释性人工智能是AI领域当下最火的话题之一,其在许多AI产业领域,比如金融、医疗健康等作用至关重要。本文详解了可解释性人工智能的动机、定义、评估,以及知识图谱在可解释性人工智能中的作用。


编译 | Xiaowen




可解释人工智能的目标是创建一套能够产生更多解释模型的技术,同时保持高水平的搜索、学习、规划、推理性能:优化、准确、精确;以及使人类用户能够理解、适当地信任和有效地管理AI系统中出现的泛型。



目录

  • 人工智能中的解释
    • 动机
    • 定义
    • 评估(以及人类在可解释性人工智能中的角色)
    • 人类作用
    • 不同AI领域的解释性
  • 知识图谱在可解释性机器学习中的角色和作用
  • 利用知识图谱在机器学习中的可解释性人工智能工业应用
  • 结论


完整PPT下载:

请关注专知公众号(点击上方蓝色专知关注)

  • 后台回复“KGinXAI” 就可以获取本文完整PPT下载链接~ 



可解释性人工智能在金融、医疗健康等领域都至关重要:

准确性和可解释性之间的关系:


如何评估可解释性?



知识图谱在可解释性人工智能,特别是机器学习方面,是什么角色?起何作用?
由于篇幅有限,本文仅截取部分PPT内容,完整内容请下载Slides查看。

为什么我们需要可解释性人工智能?总结来说:


完整PPT下载:

请关注专知公众号(点击上方蓝色专知关注)

  • 后台回复“KGinXAI” 就可以获取本文完整PPT下载链接~ 




-END-
专 · 知


专知,专业可信的人工智能知识分发,让认知协作更快更好!欢迎注册登录专知www.zhuanzhi.ai,或者点击“阅读原文”使用,获取更多AI知识资料!
欢迎微信扫一扫加入专知人工智能知识星球群,获取最新AI专业干货知识资料和与专家交流咨询
请加专知小助手微信(扫一扫如下二维码添加), 获取专知VIP会员码 ,加入专知人工智能主题群,咨询技术商务合作~
点击“阅读原文”,注册使用专知
登录查看更多
89

相关内容

一个可以解释的AI(Explainable AI, 简称XAI)或透明的AI(Transparent AI),其行为可以被人类容易理解。它与机器学习中“ 黑匣子 ” 的概念形成鲜明对比,这意味着复杂算法运作的“可解释性”,即使他们的设计者也无法解释人工智能为什么会做出具体决定。 XAI可用于实现社会解释的权利。有些人声称透明度很少是免费提供的,并且在人工智能的“智能”和透明度之间经常存在权衡; 随着AI系统内部复杂性的增加,这些权衡预计会变得更大。解释AI决策的技术挑战有时被称为可解释性问题。另一个考虑因素是信息(信息过载),因此,完全透明可能并不总是可行或甚至不需要。提供的信息量应根据利益相关者与智能系统的交互情况而有所不同。 https://www.darpa.mil/program/explainable-artificial-intelligence
少标签数据学习,54页ppt
专知会员服务
196+阅读 · 2020年5月22日
因果图,Causal Graphs,52页ppt
专知会员服务
246+阅读 · 2020年4月19日
【Science最新论文】XAI—可解释人工智能简述,机遇与挑战
专知会员服务
163+阅读 · 2019年12月21日
可解释AI(XAI)工具集—DrWhy
专知
25+阅读 · 2019年6月4日
Arxiv
20+阅读 · 2019年9月7日
Physical Primitive Decomposition
Arxiv
4+阅读 · 2018年9月13日
Arxiv
7+阅读 · 2018年8月28日
Arxiv
3+阅读 · 2018年5月28日
VIP会员
相关论文
Arxiv
20+阅读 · 2019年9月7日
Physical Primitive Decomposition
Arxiv
4+阅读 · 2018年9月13日
Arxiv
7+阅读 · 2018年8月28日
Arxiv
3+阅读 · 2018年5月28日
Top
微信扫码咨询专知VIP会员