可解释人工智能(xAI)是近年来出现的一个有趣的问题。许多研究人员正试图从不同的角度和有趣的结果来处理这个问题。然而,我们在理解这些类型的模型方面仍处于起步阶段。在未来的几年里,深度学习模型的开放性将被讨论。在经典的人工智能方法中,我们经常遇到深度学习方法。这些深度学习方法可以根据数据集大小、数据集质量、用于特征提取的方法、用于深度学习模型的超参数集、激活函数和优化算法得出高效的结果。然而,目前的深度学习模型还存在一些重要的不足。这些基于人工神经网络的模型是黑盒模型,它概括传输给它的数据并从数据中学习。因此,输入和输出之间的关系是不可观察的。这是人工神经网络和深度学习模型的一个重要开放点。由于这些原因,有必要认真研究黑盒模型的可解释性和可解释性。

成为VIP会员查看完整内容
53

相关内容

一个可以解释的AI(Explainable AI, 简称XAI)或透明的AI(Transparent AI),其行为可以被人类容易理解。它与机器学习中“ 黑匣子 ” 的概念形成鲜明对比,这意味着复杂算法运作的“可解释性”,即使他们的设计者也无法解释人工智能为什么会做出具体决定。 XAI可用于实现社会解释的权利。有些人声称透明度很少是免费提供的,并且在人工智能的“智能”和透明度之间经常存在权衡; 随着AI系统内部复杂性的增加,这些权衡预计会变得更大。解释AI决策的技术挑战有时被称为可解释性问题。另一个考虑因素是信息(信息过载),因此,完全透明可能并不总是可行或甚至不需要。提供的信息量应根据利益相关者与智能系统的交互情况而有所不同。 https://www.darpa.mil/program/explainable-artificial-intelligence
最新《可解释机器学习:原理与实践》综述论文,33页pdf
专知会员服务
155+阅读 · 2020年10月10日
最新《深度持续学习》综述论文,32页pdf
专知会员服务
84+阅读 · 2020年9月6日
机器学习的可解释性
专知会员服务
168+阅读 · 2020年8月27日
【新书册】贝叶斯神经网络,41页pdf
专知会员服务
174+阅读 · 2020年6月3日
可解释AI(XAI)工具集—DrWhy
专知
25+阅读 · 2019年6月4日
未来人类会关注可解释性吗?
待字闺中
5+阅读 · 2018年8月9日
Directions for Explainable Knowledge-Enabled Systems
Arxiv
26+阅读 · 2020年3月17日
Image Captioning: Transforming Objects into Words
Arxiv
7+阅读 · 2019年6月14日
Arxiv
5+阅读 · 2019年4月25日
Metrics for Explainable AI: Challenges and Prospects
Arxiv
4+阅读 · 2018年12月11日
Arxiv
11+阅读 · 2018年5月13日
VIP会员
微信扫码咨询专知VIP会员