Explainable Artificial Intelligence (XAI) is a set of techniques that allows the understanding of both technical and non-technical aspects of Artificial Intelligence (AI) systems. XAI is crucial to help satisfying the increasingly important demand of \emph{trustworthy} Artificial Intelligence, characterized by fundamental characteristics such as respect of human autonomy, prevention of harm, transparency, accountability, etc. Within XAI techniques, counterfactual explanations aim to provide to end users a set of features (and their corresponding values) that need to be changed in order to achieve a desired outcome. Current approaches rarely take into account the feasibility of actions needed to achieve the proposed explanations, and in particular they fall short of considering the causal impact of such actions. In this paper, we present Counterfactual Explanations as Interventions in Latent Space (CEILS), a methodology to generate counterfactual explanations capturing by design the underlying causal relations from the data, and at the same time to provide feasible recommendations to reach the proposed profile. Moreover, our methodology has the advantage that it can be set on top of existing counterfactuals generator algorithms, thus minimising the complexity of imposing additional causal constrains. We demonstrate the effectiveness of our approach with a set of different experiments using synthetic and real datasets (including a proprietary dataset of the financial domain).


翻译:解释性人工智能(XAI)是一套能够理解人工智能(AI)系统的技术和非技术方面的一套技术手段。 XAI对于帮助满足人际情报(emph{可信赖}人工智能)日益重要的需求至关重要。 人工智能具有基本的特征,例如尊重人的自主权、预防伤害、透明度、问责制等。 在XAI技术范围内,反事实解释旨在向最终用户提供为实现预期结果而需要改变的一套特征(及其相应的价值),目前的方法很少考虑到为实现拟议解释而需要采取的行动的可行性,特别是它们没有考虑到这种行动的因果关系。在本文件中,我们提出反事实解释,作为冷冻空间的干预(CEILS),一种通过设计数据的基本因果关系产生反事实解释的方法,同时提出可行的建议,以达到拟议的结果。此外,我们的方法的好处是,它可以设置在现有的反事实发电机算法的顶端之上,从而不考虑这种行动的因果影响。我们在本文中提出反事实解释,作为干预手段,通过设计数据的基本因果关系,产生反事实解释,同时提出可行的建议,以便达到拟议的结果。我们的方法具有优势,可以将其固定在现有的反事实发电机生成器算法上,从而尽可能减少施加额外因力的复杂性数据。

0
下载
关闭预览

相关内容

专知会员服务
46+阅读 · 2021年6月27日
因果图,Causal Graphs,52页ppt
专知会员服务
246+阅读 · 2020年4月19日
Keras François Chollet 《Deep Learning with Python 》, 386页pdf
专知会员服务
152+阅读 · 2019年10月12日
强化学习最新教程,17页pdf
专知会员服务
174+阅读 · 2019年10月11日
【哈佛大学商学院课程Fall 2019】机器学习可解释性
专知会员服务
103+阅读 · 2019年10月9日
意识是一种数学模式
CreateAMind
3+阅读 · 2019年6月24日
计算机 | CCF推荐期刊专刊信息5条
Call4Papers
3+阅读 · 2019年4月10日
人工智能 | SCI期刊专刊信息3条
Call4Papers
5+阅读 · 2019年1月10日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
17+阅读 · 2018年12月24日
Disentangled的假设的探讨
CreateAMind
9+阅读 · 2018年12月10日
人工智能 | 国际会议截稿信息9条
Call4Papers
4+阅读 · 2018年3月13日
【推荐】用Python/OpenCV实现增强现实
机器学习研究会
15+阅读 · 2017年11月16日
强化学习 cartpole_a3c
CreateAMind
9+阅读 · 2017年7月21日
Generating Fact Checking Explanations
Arxiv
9+阅读 · 2020年4月13日
Learning to Importance Sample in Primary Sample Space
VIP会员
相关资讯
意识是一种数学模式
CreateAMind
3+阅读 · 2019年6月24日
计算机 | CCF推荐期刊专刊信息5条
Call4Papers
3+阅读 · 2019年4月10日
人工智能 | SCI期刊专刊信息3条
Call4Papers
5+阅读 · 2019年1月10日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
17+阅读 · 2018年12月24日
Disentangled的假设的探讨
CreateAMind
9+阅读 · 2018年12月10日
人工智能 | 国际会议截稿信息9条
Call4Papers
4+阅读 · 2018年3月13日
【推荐】用Python/OpenCV实现增强现实
机器学习研究会
15+阅读 · 2017年11月16日
强化学习 cartpole_a3c
CreateAMind
9+阅读 · 2017年7月21日
Top
微信扫码咨询专知VIP会员