【导读】可解释人工智能是当前关注的焦点。加拿大CortAIx 首席人工智能科学家Freddy Lecue做了关于《可解释人工智能进展》的报告,共100页ppt,特别对可解释人工智能以及知识图谱在可解释机器学习中的作用进行了重点讲述,是非常好的学习资料。
后台回复“XAIR” 就可以获取《可解释人工智能进展》PPT下载链接~
Freddy Lecue
Freddy Lecue博士是加拿大蒙特利尔泰勒斯人工智能技术研究中心的首席人工智能科学家。他也是法国索菲亚安提波利斯温姆斯的INRIA研究所的研究员。在加入泰雷兹新成立的人工智能研发实验室之前,他曾于2016年至2018年在埃森哲爱尔兰实验室担任人工智能研发主管。在加入埃森哲之前,他曾担任研究科学家,2011年至2016年在IBM research担任大规模推理系统首席研究员,2008年至2011年在曼彻斯特大学(University of Manchester)担任研究员,2005年至2008年在Orange Labs担任研究工程师。
可解释人工智能进展
报告摘要
尽管围绕基于机器学习的人工智能系统出现了大量创新,但各大行业仍对其大规模影响感到困惑。这在关键系统的上下文中尤其有效,因为大规模采用需要健壮性、信任,特别是解释。纯基于机器学习的方法已经出现,但未能解决可解释性的核心原则,即如何用人类可理解的方式来解释一个决定。可解释AI(XAI,eXplainable AI)旨在通过将符号人工智能与传统机器学习的最佳结合来应对这些挑战。多年来,人工智能的各个不同社区都在研究这一主题,它们有着不同的定义、评估指标、动机和结果。本教程简要介绍了可解释AI到目前为止的工作,并调研了人工智能社区在机器学习和符号人工智能相关方法方面所完成的工作。
可信赖人工智能包含要素
可解释人工智能涵义
可解释机器学习模型包括线性回归、逻辑回归、决策树、GLMs、GAMs、KNNs等
深度神经网络模型
计算机视觉可解释实例
机器学习中的的知识图谱嵌入
知识图谱决策树
知识图谱用于神经网络
结论
可解释的人工智能是工业上采用人工智能的强烈要求
有很多方法可以解释机器学习,但没有附加语义
需要在联合学习和推理系统方面做更多的工作
(总的来说):很多有趣的/互补的方法