2021年,CHI将首次来到日本,在东京西南方的横滨市举行。ACM (Association for Computing Machinery)CHI(计算系统人类因素会议)是人机交互领域最重要的国际会议。CHI(读作“kai”)是世界各地研究者和实践者齐聚一堂,探讨交互技术最新进展的地方。CHI被普遍推崇为人机交互领域最具声望的殿堂,每年吸引数千名国际参会者。

人工智能(AI)技术越来越多地用于在医疗保健、金融和就业等关键领域做出决策和执行自主任务。为了改进、竞争、建立适当的信任和更好地与人工智能系统交互,需要了解人工智能,这激发了学术界和公众对可解释人工智能(XAI)的极大兴趣。一方面,快速增长的XAI技术集合允许在AI系统中合并不同的解释风格。另一方面,通过人工智能解释来提供令人满意的用户体验需要以用户为中心的方法和跨学科研究来连接用户需求和技术支持。简而言之,XAI是一个对HCI研究有着日益增长的需求和令人兴奋的机会的领域。

本教程面向有志于开发和设计人工智能系统解释功能的研究人员和实践者,以及那些希望了解XAI文献中的趋势和核心主题的人。该课程将介绍一些可用的工具包,这些工具包有助于轻松地创建ML模型的解释,包括AIX 360[1],这是一个全面的工具包,提供有关该主题的技术和教育资源,如XAI概念介绍、python代码库和教程。

我们也将借鉴我们自己的设计和研究XAI系统的经验[3-8],以及从工业设计从业者[2]学习,讨论机会和挑战,把最先进的XAI技术融入AI系统,创造好的XAI用户体验,包括我们通过研究开发的“问题驱动的XAI设计流程”[9]。

https://hcixaitutorial.github.io/

  • 什么是可解释AI (XAI)?
  • XAI解决了哪些问题? XAI在不同研究领域(如机器学习、人机交互)的工作重点是什么?
  • 为什么XAI很重要?
  • XAI的动机是什么?XAI是负责任的人工智能的基础?
  • 如何解释人工智能?
  • XAI最先进的技术是什么?
  • 如何设计XAI用户体验?
  • XAI用户体验的设计方法和指导方针是什么?设计上的挑战是什么?探索了哪些解决方案?
  • XAI从哪里开始呢?
  • 在哪里可以找到实现XAI技术和设计XAI UX的相关资源?

参考文献:

[1] Arya, V., Bellamy, R. K., Chen, P. Y., Dhurandhar, A., Hind, M., Hoffman, S. C., … & Mourad, S. (2019). One explanation does not fit all: A toolkit and taxonomy of ai explainability techniques.

[2] Liao, Q. V., Gruen, D., & Miller, S. (2020). Questioning the AI: Informing Design Practices for Explainable AI User Experiences. CHI 2020

[3] Dodge, J., Liao, Q. V., Zhang, Y., Bellamy, R. K., & Dugan, C (2019). Explaining models: an empirical study of how explanations impact fairness judgmen. IUI 2019

[4] Zhang, Y., Liao, Q. V., & Bellamy, R. K. (2019). ffect of confidence and explanation on accuracy and trust calibration in ai-assisted decision making. . FAT* 2020

[5] Ghai, B., Liao, Q. V., Zhang, Y., Bellamy, R., & Mueller, K. (2021). Explainable Active Learning (XAL) Toward AI Explanations as Interfaces for Machine Teachers. CSCW 2021

[7] Narkar, S., Zhang, Y., Liao, Q. V., Wang, D., & Weisz, J. D. Model LineUpper: Supporting Interactive Model Comparison at Multiple Levels for AutoML. IUI 2021

[8] Ehsan, U., Liao, Q. V., Muller, M., Riedl, M. O., & Weisz, J. D. (2021). Expanding Explainability: Towards Social Transparency in AI systems. CHI 2021

[9] Liao, Q. V., Pribić, M., Han, J., Miller, S., & Sow, D. (2021). Question-Driven Design Process for Explainable AI User Experiences. Working Paper

成为VIP会员查看完整内容
0
47

相关内容

一个可以解释的AI(Explainable AI, 简称XAI)或透明的AI(Transparent AI),其行为可以被人类容易理解。它与机器学习中“ 黑匣子 ” 的概念形成鲜明对比,这意味着复杂算法运作的“可解释性”,即使他们的设计者也无法解释人工智能为什么会做出具体决定。 XAI可用于实现社会解释的权利。有些人声称透明度很少是免费提供的,并且在人工智能的“智能”和透明度之间经常存在权衡; 随着AI系统内部复杂性的增加,这些权衡预计会变得更大。解释AI决策的技术挑战有时被称为可解释性问题。另一个考虑因素是信息(信息过载),因此,完全透明可能并不总是可行或甚至不需要。提供的信息量应根据利益相关者与智能系统的交互情况而有所不同。 https://www.darpa.mil/program/explainable-artificial-intelligence

这本书提供了使“机器学习”系统更可解释的最新概念和可用的技术的全面介绍。本文提出的方法几乎可以应用于所有当前的“机器学习”模型: 线性和逻辑回归、深度学习神经网络、自然语言处理和图像识别等。

机器学习(Machine Learning)的进展正在增加使用人工代理来执行以前由人类处理的关键任务(医疗、法律和金融等)。虽然指导这些代理设计的原则是可以理解的,但目前大多数深度学习模型对人类的理解是“不透明的”。《Python可解释人工智能》通过从理论和实践的角度,填补了目前关于这一新兴主题的文献空白,使读者能够快速使用可解释人工智能的工具和代码。

本书以可解释AI (XAI)是什么以及为什么在该领域需要它为例开始,详细介绍了根据特定背景和需要使用XAI的不同方法。然后介绍利用Python的具体示例对可解释模型的实际操作,展示如何解释内在的可解释模型以及如何产生“人类可理解的”解释。XAI的模型不可知方法可以在不依赖于“不透明”的ML模型内部的情况下产生解释。使用计算机视觉的例子,作者然后着眼于可解释的模型的深度学习和未来的展望方法。从实践的角度,作者演示了如何在科学中有效地使用ML和XAI。最后一章解释了对抗性机器学习以及如何使用对抗性例子来做XAI。

https://www.springer.com/gp/book/9783030686390

成为VIP会员查看完整内容
1
79

【导读】开放数据科学会议ODSC21在 3 月 30日-4 月 1日,大会涵盖了众多最近研究报告,来自Freddy Lecue博士做了关于可解释人工智能的进展报告,非常值得关注!

人工智能的未来在于使人类能够与机器合作解决复杂的问题。就像任何有效的合作一样,这需要良好的沟通、信任、清晰和理解。可解释人工智能(XAI)旨在通过结合符号人工智能和传统机器学习的优点来应对此类挑战。多年来,各种不同的AI社区都在研究这一主题,他们有着不同的定义、评估指标、动机和结果。

XAI是指一套用于解释机器学习之外的任何类型的人工智能系统的工具。尽管这些工具旨在解决更广泛意义上的解释问题,但它们并不是为所有用户、任务、上下文和应用设计的。本演讲将通过回顾XAI的方法、动机、最佳实践、工业应用和局限性来描述其迄今为止的进展。

本教程是XAI迄今为止工作的一个概述,并综述了AI社区所完成的工作,重点是机器学习和符号AI相关方法。我们将阐述XAI在现实世界和大规模应用中的需求,同时提供最先进的技术和最佳的XAI编码实践。在教程的第一部分,我们将介绍AI的不同方面的解释。然后,我们将本教程重点介绍两种具体方法:(i) XAI使用机器学习,(ii) XAI使用基于图的知识表示和机器学习的组合。对于这两种方法,我们都进入了具体的方法,目前的技术水平和下一步的研究挑战。本教程的最后一部分概述了XAI的实际应用以及最佳XAI编码实践。

地址:

https://aaai.org/Conferences/AAAI-21/aaai21tutorials/#AH7

成为VIP会员查看完整内容
0
32

机器学习的巨大成功导致了AI应用的新浪潮(例如,交通、安全、医疗、金融、国防),这些应用提供了巨大的好处,但无法向人类用户解释它们的决定和行动。DARPA的可解释人工智能(XAI)项目致力于创建人工智能系统,其学习的模型和决策可以被最终用户理解并适当信任。实现这一目标需要学习更多可解释的模型、设计有效的解释界面和理解有效解释的心理要求的方法。XAI开发团队正在通过创建ML技术和开发原理、策略和人机交互技术来解决前两个挑战,以生成有效的解释。XAI的另一个团队正在通过总结、扩展和应用心理解释理论来解决第三个挑战,以帮助XAI评估人员定义一个合适的评估框架,开发团队将使用这个框架来测试他们的系统。XAI团队于2018年5月完成了第一个为期4年的项目。在一系列正在进行的评估中,开发人员团队正在评估他们的XAM系统的解释在多大程度上改善了用户理解、用户信任和用户任务性能。

成为VIP会员查看完整内容
0
29

我们给出了一个关于调查透明度和可解释性的前沿教程,因为它们与NLP有关。研究团体和业界都在开发新的技术,以使黑箱型NLP模型更加透明和可解释。来自社会科学、人机交互(HCI)和NLP研究人员的跨学科团队的报告,我们的教程有两个组成部分:对可解释的人工智能(XAI)的介绍和对NLP中可解释性研究的最新回顾; 研究结果来自一个大型跨国技术和咨询公司在现实世界中从事NLP项目的个人的定性访谈研究。第一部分将介绍NLP中与可解释性相关的核心概念。然后,我们将讨论NLP任务的可解释性,并对AI、NLP和HCI会议上的最新文献进行系统的文献综述。第二部分报告了我们的定性访谈研究,该研究确定了包括NLP在内的现实世界开发项目中出现的实际挑战和担忧。

自然语言处理中可解释AI的现状调研

近年来,最领先的模型在性能上取得了重要的进步,但这是以模型变得越来越难以解释为代价的。本调研提出了可解释AI (XAI)的当前状态的概述,在自然语言处理(NLP)领域内考虑。我们讨论解释的主要分类,以及解释可以达到和可视化的各种方式。我们详细介绍了目前可用来为NLP模型预测生成解释的操作和可解释性技术,以作为社区中模型开发人员的资源。最后,我们指出了在这个重要的研究领域目前的挑战和未来可能工作方向。

https://www.zhuanzhi.ai/paper/377e285abccf56a823a3fd0ad7a3f958

成为VIP会员查看完整内容
0
66

能够解释机器学习模型的预测在医疗诊断或自主系统等关键应用中是很重要的。深度非线性ML模型的兴起,在预测方面取得了巨大的进展。然而,我们不希望如此高的准确性以牺牲可解释性为代价。结果,可解释AI (XAI)领域出现了,并产生了一系列能够解释复杂和多样化的ML模型的方法。

在本教程中,我们结构化地概述了在深度神经网络(DNNs)的背景下为XAI提出的基本方法。特别地,我们提出了这些方法的动机,它们的优点/缺点和它们的理论基础。我们还展示了如何扩展和应用它们,使它们在现实场景中发挥最大的作用。

本教程针对的是核心和应用的ML研究人员。核心机器学习研究人员可能会有兴趣了解不同解释方法之间的联系,以及广泛的开放问题集,特别是如何将XAI扩展到新的ML算法。应用ML研究人员可能会发现,理解标准验证程序背后的强大假设是很有趣的,以及为什么可解释性对进一步验证他们的模型是有用的。他们可能还会发现新的工具来分析他们的数据并从中提取见解。参与者将受益于技术背景(计算机科学或工程)和基本的ML训练。

目录内容:

Part 1: Introduction to XAI (WS) 可解释人工智能

  • Motivations for XAI
  • Methods and Validation of XAI
  • The Clever Hans Effect

Part 2: Methods for Explaining DNNs (GM) 可解释深度神经网络方法

  • Self-Explainable DNNs
  • Perturbation-Based Explanation Techniques
  • Propagation-Based Explanation Techniques

Part 3: Implementation, Theory, Evaluation, Extensions (GM) 实现,理论、评价

  • Implementating XAI Techniques for DNNs
  • Theoretical Embedding of XAI
  • Desiderata of XAI Techniques and Evaluation
  • Extending XAI Beyond Heatmaps and DNNs

Part 4: Applications (WS) 应用

  • Walk-Through Examples
  • Debugging Large Datasets (Meta-Explanations and "Unhansing")
  • XAI in the Sciences
成为VIP会员查看完整内容
0
49

【导读】国际万维网大会(The Web Conference,简称WWW会议)是由国际万维网会议委员会发起主办的国际顶级学术会议,创办于1994年,每年举办一届,是CCF-A类会议。WWW 2020将于2020年4月20日至4月24日在中国台湾台北举行。本届会议共收到了1129篇长文投稿,录用217篇长文,录用率为19.2%。这周会议已经召开。来自美国Linkedin、AWS等几位学者共同给了关于在工业界中可解释人工智能的报告,讲述了XAI概念、方法以及面临的挑战和经验教训。

人工智能在我们的日常生活中扮演着越来越重要的角色。此外,随着基于人工智能的解决方案在招聘、贷款、刑事司法、医疗和教育等领域的普及,人工智能对个人和职业的影响将是深远的。人工智能模型在这些领域所起的主导作用已经导致人们越来越关注这些模型中的潜在偏见,以及对模型透明性和可解释性的需求。此外,模型可解释性是在需要可靠性和安全性的高风险领域(如医疗和自动化交通)以及具有重大经济意义的关键工业应用(如预测维护、自然资源勘探和气候变化建模)中建立信任和采用人工智能系统的先决条件。

因此,人工智能的研究人员和实践者将他们的注意力集中在可解释的人工智能上,以帮助他们更好地信任和理解大规模的模型。研究界面临的挑战包括 (i) 定义模型可解释性,(ii) 为理解模型行为制定可解释性任务,并为这些任务开发解决方案,最后 (iii)设计评估模型在可解释性任务中的性能的措施。

在本教程中,我们将概述AI中的模型解译性和可解释性、关键规则/法律以及作为AI/ML系统的一部分提供可解释性的技术/工具。然后,我们将关注可解释性技术在工业中的应用,在此我们提出了有效使用可解释性技术的实践挑战/指导方针,以及在几个网络规模的机器学习和数据挖掘应用中部署可解释模型的经验教训。我们将介绍不同公司的案例研究,涉及的应用领域包括搜索和推荐系统、销售、贷款和欺诈检测。最后,根据我们在工业界的经验,我们将确定数据挖掘/机器学习社区的开放问题和研究方向。

https://sites.google.com/view/www20-explainable-ai-tutorial

成为VIP会员查看完整内容
0
152

机器学习(ML)模型现在经常应用于从刑事司法到医疗保健的各个领域。随着这种新发现的普遍性,ML已经超越了学术界,发展成为一门工程学科。为此,解释工具设计来帮助数据科学家和机器学习实践者更好地理解ML模型的工作方式。然而,很少有人评估这些工具在多大程度上实现了这一目标。我们研究数据科学家对两种现有的可解释性工具的使用,即GAMs的解释性ml实现和SHAP Python包。我们对数据科学家进行了背景调查(N=11)和调查(N=197),以观察他们如何使用可解释性工具来发现在构建和评估ML模型时出现的常见问题。我们的结果表明,数据科学家过度信任和滥用解释工具。此外,很少有参与者能够准确地描述这些工具的可视化输出。我们为数据科学家的可解释工具心智模型强调定性主题。我们总结了对研究人员和工具设计者的启示,并将我们的发现置于社会科学文献的背景中。

成为VIP会员查看完整内容
0
64

【导读】2020 年 2 月 7 日-2 月 12 日,AAAI 2020 于美国纽约举办。AAAI2020关于可解释人工智能的Tutorial引起了人们极大的关注,这场Tutorial详细阐述了解释黑盒机器学习模型的术语概念以及相关方法,涵盖基础、工业应用、实际挑战和经验教训,是构建可解释模型的重要指南.

可解释AI:基础、工业应用、实际挑战和经验教训

地址https://xaitutorial2020.github.io/

Tutorial 目标 本教程的目的是为以下问题提供答案:

  • 什么是可解释的AI (XAI)

    • 什么是可解释的AI(简称XAI) ?,人工智能社区(机器学习、逻辑学、约束编程、诊断)的各种流有什么解释?解释的度量标准是什么?
  • 我们为什么要关心?

    • 为什么可解释的AI很重要?甚至在某些应用中至关重要?阐述人工智能系统的动机是什么?
  • 哪里是关键?

    • 在大规模部署人工智能系统时,真正需要解释的实际应用是什么?
  • 它是如何工作的?

    • 在计算机视觉和自然语言处理中,最先进的解释技术是什么?对于哪种数据格式、用例、应用程序、行业,什么有效,什么没有效?
  • 我们学到了什么?

    • 部署现有XAI系统的经验教训和局限性是什么?在向人类解释的过程中?
  • 下一个是什么?

    • 未来的发展方向是什么?

概述

人工智能的未来在于让人们能够与机器合作解决复杂的问题。与任何有效的协作一样,这需要良好的沟通、信任、清晰和理解。XAI(可解释的人工智能)旨在通过结合象征性人工智能和传统机器学习来解决这些挑战。多年来,所有不同的AI社区都在研究这个主题,它们有不同的定义、评估指标、动机和结果。

本教程简要介绍了XAI迄今为止的工作,并调查了AI社区在机器学习和符号化AI相关方法方面所取得的成果。我们将激发XAI在现实世界和大规模应用中的需求,同时展示最先进的技术和最佳实践。在本教程的第一部分,我们将介绍AI中解释的不同方面。然后,我们将本教程的重点放在两个特定的方法上: (i) XAI使用机器学习和 (ii) XAI使用基于图的知识表示和机器学习的组合。对于这两种方法,我们将详细介绍其方法、目前的技术状态以及下一步的限制和研究挑战。本教程的最后一部分概述了XAI的实际应用。

Freddy Lecue博士是加拿大蒙特利尔泰勒斯人工智能技术研究中心的首席人工智能科学家。他也是法国索菲亚安提波利斯温姆斯的INRIA研究所的研究员。在加入泰雷兹新成立的人工智能研发实验室之前,他曾于2016年至2018年在埃森哲爱尔兰实验室担任人工智能研发主管。在加入埃森哲之前,他是一名研究科学家,2011年至2016年在IBM research担任大规模推理系统的首席研究员,2008年至2011年在曼彻斯特大学(University of Manchester)担任研究员,2005年至2008年在Orange Labs担任研究工程师。

目录与内容

第一部分: 介绍和动机

人工智能解释的入门介绍。这将包括从理论和应用的角度描述和激发对可解释的人工智能技术的需求。在这一部分中,我们还总结了先决条件,并介绍了本教程其余部分所采用的不同角度。

第二部分: 人工智能的解释(不仅仅是机器学习!)

人工智能各个领域(优化、知识表示和推理、机器学习、搜索和约束优化、规划、自然语言处理、机器人和视觉)的解释概述,使每个人对解释的各种定义保持一致。还将讨论可解释性的评估。本教程将涵盖大多数定义,但只深入以下领域: (i) 可解释的机器学习,(ii) 可解释的AI与知识图和机器学习。

第三部分: 可解释的机器学习(从机器学习的角度)

在本节中,我们将处理可解释的机器学习管道的广泛问题。我们描述了机器学习社区中解释的概念,接着我们描述了一些流行的技术,主要是事后解释能力、设计解释能力、基于实例的解释、基于原型的解释和解释的评估。本节的核心是分析不同类别的黑盒问题,从黑盒模型解释到黑盒结果解释。

第四部分: 可解释的机器学习(从知识图谱的角度)

在本教程的这一节中,我们将讨论将基于图形的知识库与机器学习方法相结合的解释力。

第五部分: XAI工具的应用、经验教训和研究挑战

我们将回顾一些XAI开源和商业工具在实际应用中的例子。我们关注一些用例:i)解释自动列车的障碍检测;ii)具有内置解释功能的可解释航班延误预测系统;(三)基于知识图谱的语义推理,对企业项目的风险层进行预测和解释的大范围合同管理系统;iv)识别、解释和预测500多个城市大型组织员工异常费用报销的费用系统;v)搜索推荐系统说明;vi)解释销售预测;(七)贷款决策说明;viii)解释欺诈检测。

成为VIP会员查看完整内容
0
152
小贴士
相关论文
Probabilistic Embeddings for Cross-Modal Retrieval
Sanghyuk Chun,Seong Joon Oh,Rafael Sampaio de Rezende,Yannis Kalantidis,Diane Larlus
0+阅读 · 6月14日
Xueli Yu,Weizhi Xu,Zeyu Cui,Shu Wu,Liang Wang
5+阅读 · 2月22日
Luana Ruiz,Fernando Gama,Alejandro Ribeiro
11+阅读 · 2020年8月4日
Hierarchical Human Parsing with Typed Part-Relation Reasoning
Wenguan Wang,Hailong Zhu,Jifeng Dai,Yanwei Pang,Jianbing Shen,Ling Shao
5+阅读 · 2020年3月10日
Ruibin Xiong,Yunchang Yang,Di He,Kai Zheng,Shuxin Zheng,Chen Xing,Huishuai Zhang,Yanyan Lan,Liwei Wang,Tie-Yan Liu
4+阅读 · 2020年2月12日
Towards Automated Machine Learning: Evaluation and Comparison of AutoML Approaches and Tools
Anh Truong,Austin Walters,Jeremy Goodsitt,Keegan Hines,C. Bayan Bruss,Reza Farivar
3+阅读 · 2019年9月3日
Deep Learning for Generic Object Detection: A Survey
Li Liu,Wanli Ouyang,Xiaogang Wang,Paul Fieguth,Jie Chen,Xinwang Liu,Matti Pietikäinen
8+阅读 · 2018年9月6日
Top