【导读】国际人工智能会议AAAI 2021论文将在全程线上举办,时间在 2 月 2 日-2 月 9 日,本届大会也将是第 35 届 AAAI 大会。大会涵盖了众多最近研究Tutorial报告,来自Freddy Lecue, Pasquale Minervini, Fosca Giannotti and Riccardo Guidotti博士共同做了关于可解释人工智能的进展报告,非常值得关注!

人工智能的未来在于使人类能够与机器合作解决复杂的问题。就像任何有效的合作一样,这需要良好的沟通、信任、清晰和理解。可解释人工智能(XAI)旨在通过结合符号人工智能和传统机器学习的优点来应对此类挑战。多年来,各种不同的AI社区都在研究这一主题,他们有着不同的定义、评估指标、动机和结果。

本教程是XAI迄今为止工作的一个概述,并综述了AI社区所完成的工作,重点是机器学习和符号AI相关方法。我们将阐述XAI在现实世界和大规模应用中的需求,同时提供最先进的技术和最佳的XAI编码实践。在教程的第一部分,我们将介绍AI的不同方面的解释。然后,我们将本教程重点介绍两种具体方法:(i) XAI使用机器学习,(ii) XAI使用基于图的知识表示和机器学习的组合。对于这两种方法,我们都进入了具体的方法,目前的技术水平和下一步的研究挑战。本教程的最后一部分概述了XAI的实际应用以及最佳XAI编码实践。

地址: https://aaai.org/Conferences/AAAI-21/aaai21tutorials/#AH7

成为VIP会员查看完整内容
82

相关内容

一个可以解释的AI(Explainable AI, 简称XAI)或透明的AI(Transparent AI),其行为可以被人类容易理解。它与机器学习中“ 黑匣子 ” 的概念形成鲜明对比,这意味着复杂算法运作的“可解释性”,即使他们的设计者也无法解释人工智能为什么会做出具体决定。 XAI可用于实现社会解释的权利。有些人声称透明度很少是免费提供的,并且在人工智能的“智能”和透明度之间经常存在权衡; 随着AI系统内部复杂性的增加,这些权衡预计会变得更大。解释AI决策的技术挑战有时被称为可解释性问题。另一个考虑因素是信息(信息过载),因此,完全透明可能并不总是可行或甚至不需要。提供的信息量应根据利益相关者与智能系统的交互情况而有所不同。 https://www.darpa.mil/program/explainable-artificial-intelligence
最新《可解释人工智能》概述,50页ppt
专知会员服务
131+阅读 · 2021年3月17日
「元学习」最新AAAI2021-Tutorial,附视频与240页ppt
专知会员服务
116+阅读 · 2021年2月7日
【AAAI2021 Tutorial】工业界负责任的人工智能,262页ppt
专知会员服务
115+阅读 · 2021年2月7日
DARPA可解释人工智能
专知会员服务
127+阅读 · 2020年12月22日
专知会员服务
39+阅读 · 2020年10月13日
可解释AI(XAI)工具集—DrWhy
专知
25+阅读 · 2019年6月4日
Arxiv
1+阅读 · 2021年3月19日
Arxiv
0+阅读 · 2021年3月19日
Advances and Open Problems in Federated Learning
Arxiv
18+阅读 · 2019年12月10日
VIP会员
相关VIP内容
最新《可解释人工智能》概述,50页ppt
专知会员服务
131+阅读 · 2021年3月17日
「元学习」最新AAAI2021-Tutorial,附视频与240页ppt
专知会员服务
116+阅读 · 2021年2月7日
【AAAI2021 Tutorial】工业界负责任的人工智能,262页ppt
专知会员服务
115+阅读 · 2021年2月7日
DARPA可解释人工智能
专知会员服务
127+阅读 · 2020年12月22日
专知会员服务
39+阅读 · 2020年10月13日
微信扫码咨询专知VIP会员