We propose CX-ToM, short for counterfactual explanations with theory-of mind, a new explainable AI (XAI) framework for explaining decisions made by a deep convolutional neural network (CNN). In contrast to the current methods in XAI that generate explanations as a single shot response, we pose explanation as an iterative communication process, i.e. dialog, between the machine and human user. More concretely, our CX-ToM framework generates sequence of explanations in a dialog by mediating the differences between the minds of machine and human user. To do this, we use Theory of Mind (ToM) which helps us in explicitly modeling human's intention, machine's mind as inferred by the human as well as human's mind as inferred by the machine. Moreover, most state-of-the-art XAI frameworks provide attention (or heat map) based explanations. In our work, we show that these attention based explanations are not sufficient for increasing human trust in the underlying CNN model. In CX-ToM, we instead use counterfactual explanations called fault-lines which we define as follows: given an input image I for which a CNN classification model M predicts class c_pred, a fault-line identifies the minimal semantic-level features (e.g., stripes on zebra, pointed ears of dog), referred to as explainable concepts, that need to be added to or deleted from I in order to alter the classification category of I by M to another specified class c_alt. We argue that, due to the iterative, conceptual and counterfactual nature of CX-ToM explanations, our framework is practical and more natural for both expert and non-expert users to understand the internal workings of complex deep learning models. Extensive quantitative and qualitative experiments verify our hypotheses, demonstrating that our CX-ToM significantly outperforms the state-of-the-art explainable AI models.


翻译:我们建议 CX- ToM, 短于 CX- ToM, 短于 反事实解释, 短于 理论思维, 新的 AI (XAI ) 框架, 用于解释由深层神经神经神经网络(CNN)做出的决定。 与 XAI 中目前作为单一镜头反应产生解释的方法相比, 我们提出解释, 作为机器和人类用户之间一个迭接的沟通进程, 即对话。 更具体地说, 我们的 CX- ToM 框架通过调解机器和人类用户之间思想差异来在对话中产生解释顺序解释。 为了做到这一点, 我们使用Mind(TOM) 的理论解释, 帮助我们明确模拟人类的真实意图, 由人类和人类的大脑神经网络所推断的机器思维。 此外, 最先进的 XAI 框架提供关注( 或热图) 解释。 我们的工作显示, 这些基于关注的解释不足以增加人对 IMNIS 模型的信任。 在 CX- ToM 中, 我们使用反事实解释 定义的错误定义为以下定义的 : 由 C- deal- deal- deal exal exal exeral exeral oral ex ex ex der der ex der der der 、 ex ex laut the laveal laut the laut the des des the ex ex laut the ex ex ex ex ex laut the ex ex ex ex ex ex ex lautust lautuseral des des des des the des laut lautus lacre to laut the laut laut the laut the sild laut the laut laut lauts lauts lauts lauts laut lauts lauts lauts lauts to lauts to lauts to lauts to laut lauts to lator to lauts to lauts to lauts to lac.

0
下载
关闭预览

相关内容

【机器推理可解释性】Machine Reasoning Explainability
专知会员服务
34+阅读 · 2020年9月3日
Keras François Chollet 《Deep Learning with Python 》, 386页pdf
专知会员服务
152+阅读 · 2019年10月12日
强化学习最新教程,17页pdf
专知会员服务
174+阅读 · 2019年10月11日
【哈佛大学商学院课程Fall 2019】机器学习可解释性
专知会员服务
103+阅读 · 2019年10月9日
10页MIT可解释机器学习最新论文
专知
5+阅读 · 2019年2月22日
动物脑的好奇心和强化学习的好奇心
CreateAMind
10+阅读 · 2019年1月26日
逆强化学习-学习人先验的动机
CreateAMind
15+阅读 · 2019年1月18日
人工智能 | SCI期刊专刊信息3条
Call4Papers
5+阅读 · 2019年1月10日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
17+阅读 · 2018年12月24日
【 关关的刷题日记47】Leetcode 38. Count and Say
计算机视觉近一年进展综述
机器学习研究会
9+阅读 · 2017年11月25日
Capsule Networks解析
机器学习研究会
11+阅读 · 2017年11月12日
可解释的CNN
CreateAMind
17+阅读 · 2017年10月5日
【推荐】图像分类必读开创性论文汇总
机器学习研究会
14+阅读 · 2017年8月15日
Comparing Human and Machine Bias in Face Recognition
Arxiv
0+阅读 · 2021年10月25日
Arxiv
4+阅读 · 2019年8月7日
VIP会员
相关资讯
10页MIT可解释机器学习最新论文
专知
5+阅读 · 2019年2月22日
动物脑的好奇心和强化学习的好奇心
CreateAMind
10+阅读 · 2019年1月26日
逆强化学习-学习人先验的动机
CreateAMind
15+阅读 · 2019年1月18日
人工智能 | SCI期刊专刊信息3条
Call4Papers
5+阅读 · 2019年1月10日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
17+阅读 · 2018年12月24日
【 关关的刷题日记47】Leetcode 38. Count and Say
计算机视觉近一年进展综述
机器学习研究会
9+阅读 · 2017年11月25日
Capsule Networks解析
机器学习研究会
11+阅读 · 2017年11月12日
可解释的CNN
CreateAMind
17+阅读 · 2017年10月5日
【推荐】图像分类必读开创性论文汇总
机器学习研究会
14+阅读 · 2017年8月15日
Top
微信扫码咨询专知VIP会员