一个可以解释的AI(Explainable AI, 简称XAI)或透明的AI(Transparent AI),其行为可以被人类容易理解。它与机器学习中“ 黑匣子 ” 的概念形成鲜明对比,这意味着复杂算法运作的“可解释性”,即使他们的设计者也无法解释人工智能为什么会做出具体决定。 XAI可用于实现社会解释的权利。有些人声称透明度很少是免费提供的,并且在人工智能的“智能”和透明度之间经常存在权衡; 随着AI系统内部复杂性的增加,这些权衡预计会变得更大。解释AI决策的技术挑战有时被称为可解释性问题。另一个考虑因素是信息(信息过载),因此,完全透明可能并不总是可行或甚至不需要。提供的信息量应根据利益相关者与智能系统的交互情况而有所不同。 https://www.darpa.mil/program/explainable-artificial-intelligence

VIP内容

随着广泛的应用,人工智能(AI)催生了一系列与人工智能相关的研究活动。其中一个领域就是可解释的人工智能。它是值得信赖的人工智能系统的重要组成部分。本文概述了可解释的人工智能方法,描述了事后人工智能系统(为先前构建的常规人工智能系统提供解释)和事后人工智能系统(从一开始就配置为提供解释)。解释的形式多种多样:基于特征的解释、基于说明性训练样本的解释、基于嵌入式表示的解释、基于热度图的解释。也有结合了神经网络模型和图模型的概率解释。可解释人工智能与许多人工智能研究前沿领域密切相关,如神经符号人工智能和机器教学

成为VIP会员查看完整内容
0
46
Top