The remarkable advancements in Deep Learning (DL) algorithms have fueled enthusiasm for using Artificial Intelligence (AI) technologies in almost every domain; however, the opaqueness of these algorithms put a question mark on their applications in safety-critical systems. In this regard, the `explainability' dimension is not only essential to both explain the inner workings of black-box algorithms, but it also adds accountability and transparency dimensions that are of prime importance for regulators, consumers, and service providers. eXplainable Artificial Intelligence (XAI) is the set of techniques and methods to convert the so-called black-box AI algorithms to white-box algorithms, where the results achieved by these algorithms and the variables, parameters, and steps taken by the algorithm to reach the obtained results, are transparent and explainable. To complement the existing literature on XAI, in this paper, we take an `engineering' approach to illustrate the concepts of XAI. We discuss the stakeholders in XAI and describe the mathematical contours of XAI from engineering perspective. Then we take the autonomous car as a use-case and discuss the applications of XAI for its different components such as object detection, perception, control, action decision, and so on. This work is an exploratory study to identify new avenues of research in the field of XAI.


翻译:深深学习(DL)算法的显著进步激发了在几乎每个领域使用人工智能(AI)技术的热情;然而,这些算法的不透明性对其在安全关键系统中的应用提出了疑问。在这方面,“可解释性”层面不仅对于解释黑箱算法的内部工作原理不仅对解释黑箱算法的内部工作原理至关重要,而且增加了对监管者、消费者和服务提供者至关重要的问责制和透明度层面。 eX可移植人工智能(XAI)是将所谓的黑箱AI算法转换成白箱算法的一套技术和方法,这些算法的不透明性对其在安全关键系统中的应用提出了疑问。在这方面,这些算法的结果以及变量、参数和算法为达到所获得的结果而采取的步骤是透明和可以解释的。为了补充关于黑箱算算法的现有文献,我们采取“重新设计”的方法来说明XAI的概念。我们在XAI中讨论利害关系方,并从工程角度描述XAI的数学轮的数学轮轮。然后,我们把自驾驶汽车当作一个使用行作为使用箱,讨论XAI的变量、变量、参数的变量、参数应用XAI的应用应用,这是XAI的研究、XAI的实地研究的实地研究,这是研究的实地研究、对XAI的观察的实地研究的实地研究、对XA的操作的运用的操作的运用,这是的实地研究、对XAI的操作的操作的操作的操作的操作的操作的运用,这是的操作的操作的操作的操作的运用,这是的操作的操作的操作的操作的操作的操作的操作的操作的操作的操作,是,这是的操作的操作的操作的操作的操作的操作的操作的操作的操作的操作,这是的操作的操作的操作的操作的操作的操作的操作的操作的操作的操作的操作的操作,这是的操作,这是的操作,这是的操作的操作的操作的操作的操作的操作,这是的操作的操作的操作,这是的操作的操作的操作的操作的操作的操作的操作的操作的操作,这是的操作的操作的操作的操作的操作,这是的操作,是的操作的操作的操作的操作的操作的操作的操作的操作的操作的操作的操作的操作的操作的操作的操作的操作的操作,是的操作的操作的操作的操作的操作的操作的操作的的

1
下载
关闭预览

相关内容

可解释强化学习,Explainable Reinforcement Learning: A Survey
专知会员服务
129+阅读 · 2020年5月14日
【边缘智能综述论文】A Survey on Edge Intelligence
专知会员服务
119+阅读 · 2020年3月30日
强化学习最新教程,17页pdf
专知会员服务
174+阅读 · 2019年10月11日
【哈佛大学商学院课程Fall 2019】机器学习可解释性
专知会员服务
103+阅读 · 2019年10月9日
Transferring Knowledge across Learning Processes
CreateAMind
27+阅读 · 2019年5月18日
人工智能 | ISAIR 2019诚邀稿件(推荐SCI期刊)
Call4Papers
6+阅读 · 2019年4月1日
10页MIT可解释机器学习最新论文
专知
5+阅读 · 2019年2月22日
人工智能 | SCI期刊专刊信息3条
Call4Papers
5+阅读 · 2019年1月10日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
16+阅读 · 2018年12月24日
Disentangled的假设的探讨
CreateAMind
9+阅读 · 2018年12月10日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
人工智能 | 国际会议/SCI期刊约稿信息9条
Call4Papers
3+阅读 · 2018年1月12日
计算机视觉近一年进展综述
机器学习研究会
9+阅读 · 2017年11月25日
Directions for Explainable Knowledge-Enabled Systems
Arxiv
26+阅读 · 2020年3月17日
Metrics for Explainable AI: Challenges and Prospects
Arxiv
4+阅读 · 2018年12月11日
VIP会员
相关资讯
Transferring Knowledge across Learning Processes
CreateAMind
27+阅读 · 2019年5月18日
人工智能 | ISAIR 2019诚邀稿件(推荐SCI期刊)
Call4Papers
6+阅读 · 2019年4月1日
10页MIT可解释机器学习最新论文
专知
5+阅读 · 2019年2月22日
人工智能 | SCI期刊专刊信息3条
Call4Papers
5+阅读 · 2019年1月10日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
16+阅读 · 2018年12月24日
Disentangled的假设的探讨
CreateAMind
9+阅读 · 2018年12月10日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
人工智能 | 国际会议/SCI期刊约稿信息9条
Call4Papers
3+阅读 · 2018年1月12日
计算机视觉近一年进展综述
机器学习研究会
9+阅读 · 2017年11月25日
Top
微信扫码咨询专知VIP会员