一个可以解释的AI(Explainable AI, 简称XAI)或透明的AI(Transparent AI),其行为可以被人类容易理解。它与机器学习中“ 黑匣子 ” 的概念形成鲜明对比,这意味着复杂算法运作的“可解释性”,即使他们的设计者也无法解释人工智能为什么会做出具体决定。 XAI可用于实现社会解释的权利。有些人声称透明度很少是免费提供的,并且在人工智能的“智能”和透明度之间经常存在权衡; 随着AI系统内部复杂性的增加,这些权衡预计会变得更大。解释AI决策的技术挑战有时被称为可解释性问题。另一个考虑因素是信息(信息过载),因此,完全透明可能并不总是可行或甚至不需要。提供的信息量应根据利益相关者与智能系统的交互情况而有所不同。 https://www.darpa.mil/program/explainable-artificial-intelligence

精品内容

可解释聚类综述
专知会员服务
27+阅读 · 9月8日
《军事域可解释人工智能》
专知会员服务
38+阅读 · 7月4日
人工智能(XAI)可解释性的研究进展!
专知会员服务
31+阅读 · 6月12日
人工智能(XAI)可解释性的研究进展!
专知会员服务
8+阅读 · 6月12日
《用于个性化人机协作的可解释人工智能》269页
可解释人工智能中基于梯度的特征归因技术综述
专知会员服务
26+阅读 · 3月20日
面向电子战的可解释智能应用研究
专知会员服务
58+阅读 · 2023年10月14日
可解释人工智能的军事应用前景分析
专知会员服务
62+阅读 · 2023年10月13日
微信扫码咨询专知VIP会员