随着机器学习黑盒越来越多地部署在医疗保健和刑事司法等领域,人们越来越重视构建工具和技术,以事后方式解释这些黑盒。这些解释正被领域专家用来诊断系统性错误和黑盒的潜在偏见。然而,最近的研究揭示了流行的事后解释技术的弱点。在本教程中,我将简要概述事后解释方法,特别强调特征归因方法,如LIME和SHAP。然后,我将讨论最近的研究,这些研究表明,这些方法是脆弱的,不稳定的,并容易受到各种对抗性攻击。最后,我将提出两种解决方案,以解决这些方法的一些漏洞:(I)一个基于对抗性训练的通用框架,旨在使事后解释更稳定,更鲁棒,以应对底层数据的变化,(ii) 贝叶斯框架,捕获与事后解释相关的不确定性,从而允许我们生成满足用户指定的置信水平的可靠解释。总的来说,本教程将提供可解释机器学习这一新兴领域的最新技术的概述。

https://www.chilconference.org/tutorial_T04.html

成为VIP会员查看完整内容
0
41

相关内容

“机器学习是近20多年兴起的一门多领域交叉学科,涉及概率论、统计学、逼近论、凸分析、算法复杂度理论等多门学科。机器学习理论主要是设计和分析一些让 可以自动“ 学习”的算法。机器学习算法是一类从数据中自动分析获得规律,并利用规律对未知数据进行预测的算法。因为学习算法中涉及了大量的统计学理论,机器学习与统计推断学联系尤为密切,也被称为统计学习理论。算法设计方面,机器学习理论关注可以实现的,行之有效的学习算法。很多 推论问题属于 无程序可循难度,所以部分的机器学习研究是开发容易处理的近似算法。” ——中文维基百科

知识荟萃

精品入门和进阶教程、论文和代码整理等

更多

查看相关VIP内容、论文、资讯等

【导读】 知识图谱KGC是一个世界级会议,将有经验的实践者、技术领导者、前沿研究人员、学者和供应商聚集在一起,就知识图的主题进行为期两天的演讲、讨论和网络交流。KGC2021在5月3号到6号举行。来自加拿大CortAIx 首席人工智能科学家Freddy Lecue做了关于《知识图谱在可解释机器学习系统中应用》的报告,特别对可解释人工智能以及知识图谱在可解释机器学习中的作用进行了重点讲述,是非常好的学习资料。

知识图谱在可解释机器学习的应用

机器学习(ML),作为人工智能的关键驱动力之一,已经在许多行业显示出颠覆性的结果。在关键系统中应用ML(尤其是人工神经网络模型)最根本的问题之一,就是它无法为其决策提供依据。主要是因为常识知识或推理超出了ML系统的范围。我们展示了如何运用知识图谱来揭示更多人类可以理解的机器学习决策,并展示了一个框架,将ML和知识图谱结合起来,在识别4,233,000个资源的知识图谱中的任何一个类的对象时,展示出一个接近人的解释。

成为VIP会员查看完整内容
0
69

随着广泛的应用,人工智能(AI)催生了一系列与人工智能相关的研究活动。其中一个领域就是可解释的人工智能。它是值得信赖的人工智能系统的重要组成部分。本文概述了可解释的人工智能方法,描述了事后人工智能系统(为先前构建的常规人工智能系统提供解释)和事后人工智能系统(从一开始就配置为提供解释)。解释的形式多种多样:基于特征的解释、基于说明性训练样本的解释、基于嵌入式表示的解释、基于热度图的解释。也有结合了神经网络模型和图模型的概率解释。可解释人工智能与许多人工智能研究前沿领域密切相关,如神经符号人工智能和机器教学

成为VIP会员查看完整内容
0
69

人工智能(AI)在决定我们日常体验方面扮演着越来越重要的角色。人工智能的应用越来越多地不再局限于搜索和推荐系统,如网络搜索、电影和产品推荐,但人工智能也被用于对个人、企业和社会至关重要的决策和流程。在招聘、借贷、刑事司法、医疗保健和教育等领域,基于web的人工智能解决方案对个人和专业的影响是深远的。

在人工智能系统的开发和部署中,有许多因素发挥着作用,它们可能会表现出不同的、有时是有害的行为。例如,训练数据往往来自社会和现实世界,因此它可能反映了社会对少数民族和弱势群体的偏见和歧视。例如,少数族裔与多数族裔在类似行为上面临更高的逮捕率,所以在没有补偿的情况下构建一个人工智能系统可能只会加剧这种偏见。

上述问题凸显出需要监管、最佳实践和实用工具,以帮助数据科学家和ML开发人员构建安全、隐私保护、透明、可解释、公平和负责的人工智能系统,以避免可能对个人、企业和社会有害的意外后果和合规挑战。

在这些原则中,模型的透明度和可解释性是在需要可靠性和安全性的高风险领域(如医疗保健和自动化运输)建立信任和采用人工智能系统的先决条件,以及具有重大经济影响的关键工业应用(如预测性维护、自然资源勘探和气候变化建模)。除了可解释性,越来越多的利益相关者质疑他们的人工智能系统的公平性,因为有很多例子可以说明不考虑公平性的后果,从人脸识别对白人男性的效果明显优于有色女性,到歧视特定群体的自动招聘系统。通过整合工具来确保模型的透明度和公平性,可以让数据科学家、工程师和模型用户更容易调试模型,并实现确保AI系统的公平性、可靠性和安全性等重要目标。

最后,人工智能产品通常由ML模型驱动,这些模型根据敏感用户数据进行训练。给定足够的复杂性——无论是从参数的数量[例如。或者用户级个性化——,该模型可以对用户的私人信息进行编码。此外,通常需要在ML生命周期的不同阶段确保用户隐私,并保护不同类型的不良行为者和威胁场景,需要隐私保护AI方法。

在本教程中,我们将概述负责任的人工智能,强调人工智能中模型的可解释性、公平性和隐私性,关键的法规/法律,以及提供关于基于web的人工智能/ML系统的理解的技术/工具。然后,我们将关注可解释性、公平评估/不公平缓解和隐私技术在行业中的应用,其中我们提出了有效使用这些技术的实际挑战/指导方针,以及从部署几个web规模的机器学习和数据挖掘应用模型中获得的经验教训。我们将介绍不同公司的案例研究,包括搜索和推荐系统、招聘、销售、借贷和欺诈检测等应用领域。我们将强调,与负责任的人工智能相关的主题是社会技术的,也就是说,它们是社会和技术交叉的主题。潜在的挑战不能由技术人员单独解决;我们需要与所有关键的利益相关者一起工作——比如技术的客户、受技术影响的人,以及具有道德和相关学科背景的人——并在设计这些系统时考虑他们的输入。最后,基于我们在行业中的经验,我们将为数据挖掘/机器学习社区确定开放的问题和研究方向。

https://sites.google.com/view/ResponsibleAITutorial

成为VIP会员查看完整内容
0
61

因果学习

因果推理在许多领域都很重要,包括科学、决策制定和公共政策。确定因果关系的金标准方法使用随机控制扰动实验。然而,在许多情况下,这样的实验是昂贵的、耗时的或不可能的。从观察数据中获得因果信息是可替代的一种选择,也就是说,从通过观察感兴趣系统获得的数据中获得而不使其受到干预。在这次演讲中,我将讨论从观察数据中进行因果学习的方法,特别关注因果结构学习和变量选择的结合,目的是估计因果效果。我们将用例子来说明这些概念。

成为VIP会员查看完整内容
0
104

贝叶斯概率模型为不确定性下的相干推理和预测提供了一个原则框架。近似推理解决了贝叶斯计算的关键挑战,即计算棘手的后验分布和相关数量,如贝叶斯预测分布。近十年来,贝叶斯建模技术在计算机视觉、自然语言处理、强化学习等领域的机器学习任务中得到了广泛应用。

本教程对近似推理的最新进展进行了一个连贯的总结。我们将以介绍近似推理的概念和变分推理的基础知识开始本教程。然后我们将描述现代近似推理的基本方面,包括可扩展推理、蒙特卡洛技术、平摊推理、近似后验设计和优化目标。这些最新进展之间的联系也将被讨论。最后,我们将在下游不确定性估计和决策任务中的应用实例提供先进的近似推理技术,并对未来的研究方向进行讨论。

成为VIP会员查看完整内容
0
26

我们给出了一个关于调查透明度和可解释性的前沿教程,因为它们与NLP有关。研究团体和业界都在开发新的技术,以使黑箱型NLP模型更加透明和可解释。来自社会科学、人机交互(HCI)和NLP研究人员的跨学科团队的报告,我们的教程有两个组成部分:对可解释的人工智能(XAI)的介绍和对NLP中可解释性研究的最新回顾; 研究结果来自一个大型跨国技术和咨询公司在现实世界中从事NLP项目的个人的定性访谈研究。第一部分将介绍NLP中与可解释性相关的核心概念。然后,我们将讨论NLP任务的可解释性,并对AI、NLP和HCI会议上的最新文献进行系统的文献综述。第二部分报告了我们的定性访谈研究,该研究确定了包括NLP在内的现实世界开发项目中出现的实际挑战和担忧。

自然语言处理中可解释AI的现状调研

近年来,最领先的模型在性能上取得了重要的进步,但这是以模型变得越来越难以解释为代价的。本调研提出了可解释AI (XAI)的当前状态的概述,在自然语言处理(NLP)领域内考虑。我们讨论解释的主要分类,以及解释可以达到和可视化的各种方式。我们详细介绍了目前可用来为NLP模型预测生成解释的操作和可解释性技术,以作为社区中模型开发人员的资源。最后,我们指出了在这个重要的研究领域目前的挑战和未来可能工作方向。

https://www.zhuanzhi.ai/paper/377e285abccf56a823a3fd0ad7a3f958

成为VIP会员查看完整内容
0
74

随着机器学习模型越来越多地用于在医疗保健和刑事司法等高风险环境中帮助决策者,确保决策者(最终用户)正确理解并因此信任这些模型的功能是很重要的。本报告旨在让学生熟悉可解释和可解释ML这一新兴领域的最新进展。在本报告中,我们将回顾该领域的重要论文,理解模型可解释和可解释的概念,详细讨论不同类别的可解释模型(如基于原型的方法、稀疏线性模型、基于规则的技术、广义可加性模型),事后解释(黑箱解释包括反事实解释和显著性图),并探索可解释性与因果关系、调试和公平性之间的联系。该课程还将强调各种应用,可以极大地受益于模型的可解释性,包括刑事司法和医疗保健。

https://himalakkaraju.github.io/

成为VIP会员查看完整内容
0
49

灵活性和速度是深度学习框架的关键特性,允许快速地从研究想法过渡到原型和生产代码。我们概述了如何为涵盖各种模型和应用程序的序列处理实现统一框架。我们将以工具包RETURNN为例讨论这种实现,它易于应用和用户理解,灵活地允许任何类型的架构或方法,同时也非常高效。此外,对序列分类的不同机器学习工具包的性质进行了比较。将展示使用这些特定实现的灵活性,以描述最近最先进的自动语音识别和机器翻译模型的设置。

http://www.interspeech2020.org/index.php?m=content&c=index&a=show&catid=372&id=294

成为VIP会员查看完整内容
0
24

不确定性的概念在机器学习中是非常重要的,并且构成了现代机器学习方法论的一个关键元素。近年来,由于机器学习与实际应用的相关性越来越大,它的重要性也越来越大,其中许多应用都伴随着安全要求。在这方面,机器学习学者们发现了新的问题和挑战,需要新的方法发展。事实上,长期以来,不确定性几乎被视为标准概率和概率预测的同义词,而最近的研究已经超越了传统的方法,也利用了更一般的形式主义和不确定性计算。例如,不确定性的不同来源和类型之间的区别,例如任意不确定性和认知不确定性,在许多机器学习应用中被证明是有用的。讲习班将特别注意这方面的最新发展。

综述论文:

不确定性的概念在机器学习中是非常重要的,并且构成了机器学习方法的一个关键元素。按照统计传统,不确定性长期以来几乎被视为标准概率和概率预测的同义词。然而,由于机器学习与实际应用和安全要求等相关问题的相关性稳步上升,机器学习学者最近发现了新的问题和挑战,而这些问题可能需要新的方法发展。特别地,这包括区分(至少)两种不同类型的不确定性的重要性,通常被称为任意的和认知的。在这篇论文中,我们提供了机器学习中的不确定性主题的介绍,以及到目前为止在处理一般不确定性方面的尝试的概述,并特别将这种区别形式化。

https://www.zhuanzhi.ai/paper/8329095368761f81a7849fe5457949ed

成为VIP会员查看完整内容
0
62
小贴士
相关VIP内容
专知会员服务
49+阅读 · 7月19日
专知会员服务
69+阅读 · 3月17日
专知会员服务
104+阅读 · 2020年12月12日
专知会员服务
26+阅读 · 2020年12月11日
专知会员服务
62+阅读 · 2020年10月18日
相关论文
Flavio B. Gonçalves,Krzysztof G. Łatuszyński,Gareth O. Roberts
0+阅读 · 9月15日
Yi Yang,Daoye Zhu,Tengteng Qu,Qiangyu Wang,Fuhu Ren,Chengqi Cheng
0+阅读 · 9月13日
Detection of GAN-synthesized street videos
Omran Alamayreh,Mauro Barni
0+阅读 · 9月10日
Few-shot Scene-adaptive Anomaly Detection
Yiwei Lu,Frank Yu,Mahesh Kumar Krishna Reddy,Yang Wang
8+阅读 · 2020年7月15日
Bryan Wilder,Eric Ewing,Bistra Dilkina,Milind Tambe
5+阅读 · 2019年5月31日
Avisek Lahiri,Charan Reddy,Prabir Kumar Biswas
3+阅读 · 2018年10月4日
Deep Learning
Nicholas G. Polson,Vadim O. Sokolov
3+阅读 · 2018年8月3日
Benjamin Recht
5+阅读 · 2018年6月25日
Ryo Takahashi,Ran Tian,Kentaro Inui
3+阅读 · 2018年5月24日
Rayson Laroca,Evair Severo,Luiz A. Zanlorensi,Luiz S. Oliveira,Gabriel Resende Gonçalves,William Robson Schwartz,David Menotti
13+阅读 · 2018年3月1日
Top