【导读】近期涌现了大量的关于可解释性人工智能(XAI)的研究。该领域解决了复杂机器和算法常常不能为它们的行为和思考过程提供理解的问题。XAI使得用户和内部系统的部分更加透明,为它们的决策提供一定粒度的解释。本文介绍MIT的关于可解释性机器学习的最新论文《Explaining Explanations: An Overview of Interpretability of Machine Learning》。
摘要
近期涌现了大量的关于可解释性人工智能(XAI)的研究。该领域解决了复杂机器和算法常常不能为它们的行为和思考过程提供理解的问题。XAI使得用户和内部系统的部分更加透明,为它们的决策提供一定粒度的解释。这些解释对于保证算法的公平性、识别训练数据中潜在的偏见/问题以及保证算法按照预期运行有着重要的意义。然而,这些系统产生的解释并不标准化,也没有被系统性地评估。为了能够创建最好的实践和识别公开的挑战,我们描述了可解释性的基础概念,并展示如何使用它们来归类已有的工作。我们讨论了为什么当前面向解释性的方法(尤其是在深度网络上)有着不足。最后,基于我们的调研,我们总结了XAI未来可能的研究方向。
目录
Introduction
BACKGROUND AND FOUNDATIONAL CONCEPTS
What is an Explanation?
Interpretability vs. Completeness
Explainability of Deep Networks
REVIEW
Explanations of Deep Network Processing
Explanations of Deep Network Representations
Explanation-Producing Systems
RELATED WORK
Interpretability
Explainable AI for HCI
Explanations for Black-Box Models
Explainability in Other Domains
TAXONOMY
EVALUATION
Processing
Representation
Explanation-Producing
CONCLUSIONS
REFERENCES
请关注专知公众号(点击上方蓝色专知关注)
后台回复“EEOIML” 就可以获取《Explaining Explanations: An Overview of Interpretability of Machine Learning》的下载链接~
论文内容
参考链接:
https://arxiv.org/pdf/1806.00069.pdf
-END-
专 · 知
专知《深度学习:算法到实战》课程全部完成!480+位同学在学习,现在报名,限时优惠!网易云课堂人工智能畅销榜首位!
欢迎微信扫一扫加入专知人工智能知识星球群,获取最新AI专业干货知识教程视频资料和与专家交流咨询!
请加专知小助手微信(扫一扫如下二维码添加),加入专知人工智能主题群,咨询《深度学习:算法到实战》课程,咨询技术商务合作~
请PC登录www.zhuanzhi.ai或者点击阅读原文,注册登录专知,获取更多AI知识资料!
点击“阅读原文”,了解报名专知《深度学习:算法到实战》课程