讲座题目

公平意识机器学习:现实挑战与经验教训:Fairness-Aware Machine Learning: Practical Challenges and Lessons Learned

讲座简介

来自不同学科的研究人员和从业人员强调了使用机器学习模型和数据驱动系统所带来的伦理和法律挑战,以及由于算法决策系统的偏见,这些系统可能歧视某些群体。本教程概述了过去几年观察到的算法偏差/歧视问题,以及在机器学习系统中为实现公平性而吸取的经验教训、关键法规和法律,以及技术的发展。在为不同的消费者和企业应用开发基于机器学习的模型和系统时,我们将鼓励采用“按设计公平”的方法(而不是将算法偏差/公平考虑视为事后考虑)。然后,我们将通过展示来自不同技术公司的非专利案例研究,重点关注公平感知机器学习技术在实践中的应用。最后,根据我们在Facebook、Google、LinkedIn和Microsoft等公司致力于机器学习公平性的经验,我们将为数据挖掘/机器学习社区提出开放的问题和研究方向。

讲座嘉宾

莎拉•伯德(Sarah Bird)领导着人工智能研究与Facebook产品交叉点的战略项目。她目前的工作集中在人工智能伦理和发展规模负责任人工智能。她还一直致力于开放人工智能系统,是ONNX的共同创造者之一,ONNX是一个用于深度学习模型的开放标准,也是Pythorc1.0项目的领导者。在加入Facebook之前,她曾是微软纽约研究中心的人工智能系统研究员和微软数据集团的技术顾问。她是微软决策服务(Decision Service)背后的研究人员之一,该服务是第一个公开发布的通用强化学习型云系统。她还与人共同创立了微软人工智能伦理命运研究小组。她拥有加州大学伯克利分校(UC Berkeley)计算机科学博士学位,由戴夫·帕特森(Dave Patterson)、克里斯特·阿萨诺维奇(Krste Asanovic)和伯顿·史密斯(Burton Smith)担任顾问。Sarah共同组织了多个相关主题的研讨会(人工智能、NIPS 2018中的道德、社会和治理问题研讨会;NIPS 2018中的机器学习系统研讨会;NIPS 2017中的机器学习系统研讨会;SOSP 2017中的人工智能系统研讨会;NIPS 2016中的机器学习系统研讨会),并在2018年伯克利隐私法论坛(Berkeley Privacy Law Forum)上发表了受邀的主题演讲(“人工智能与机器学习:Facebook视角”)。

成为VIP会员查看完整内容
0
15

相关内容

“机器学习是近20多年兴起的一门多领域交叉学科,涉及概率论、统计学、逼近论、凸分析、算法复杂度理论等多门学科。机器学习理论主要是设计和分析一些让 可以自动“ 学习”的算法。机器学习算法是一类从数据中自动分析获得规律,并利用规律对未知数据进行预测的算法。因为学习算法中涉及了大量的统计学理论,机器学习与统计推断学联系尤为密切,也被称为统计学习理论。算法设计方面,机器学习理论关注可以实现的,行之有效的学习算法。很多 推论问题属于 无程序可循难度,所以部分的机器学习研究是开发容易处理的近似算法。” ——中文维基百科

知识荟萃

精品入门和进阶教程、论文和代码整理等

更多

查看相关VIP内容、论文、资讯等

题目: Review of Mathematical frameworks for Fairness in Machine Learning

摘要:

从数学的角度回顾了过去几年文献中提出的主要公平定义和公平学习方法。根据基于独立的方法,考虑如何构建公平的算法,以及与可能不公平的情况相比,算法性能下降的后果。这相当于公平的价格由标准统计均等或机会均等给出。给出了最优公平分类器和最优公平预测器(在线性回归高斯模型下)在机会均等意义下的新结果。

成为VIP会员查看完整内容
0
28

【导读】国际万维网大会(The Web Conference,简称WWW会议)是由国际万维网会议委员会发起主办的国际顶级学术会议,创办于1994年,每年举办一届,是CCF-A类会议。WWW 2020将于2020年4月20日至4月24日在中国台湾台北举行。本届会议共收到了1129篇长文投稿,录用217篇长文,录用率为19.2%。这周会议已经召开。来自美国Linkedin、AWS等几位学者共同给了关于在工业界中可解释人工智能的报告,讲述了XAI概念、方法以及面临的挑战和经验教训。

人工智能在我们的日常生活中扮演着越来越重要的角色。此外,随着基于人工智能的解决方案在招聘、贷款、刑事司法、医疗和教育等领域的普及,人工智能对个人和职业的影响将是深远的。人工智能模型在这些领域所起的主导作用已经导致人们越来越关注这些模型中的潜在偏见,以及对模型透明性和可解释性的需求。此外,模型可解释性是在需要可靠性和安全性的高风险领域(如医疗和自动化交通)以及具有重大经济意义的关键工业应用(如预测维护、自然资源勘探和气候变化建模)中建立信任和采用人工智能系统的先决条件。

因此,人工智能的研究人员和实践者将他们的注意力集中在可解释的人工智能上,以帮助他们更好地信任和理解大规模的模型。研究界面临的挑战包括 (i) 定义模型可解释性,(ii) 为理解模型行为制定可解释性任务,并为这些任务开发解决方案,最后 (iii)设计评估模型在可解释性任务中的性能的措施。

在本教程中,我们将概述AI中的模型解译性和可解释性、关键规则/法律以及作为AI/ML系统的一部分提供可解释性的技术/工具。然后,我们将关注可解释性技术在工业中的应用,在此我们提出了有效使用可解释性技术的实践挑战/指导方针,以及在几个网络规模的机器学习和数据挖掘应用中部署可解释模型的经验教训。我们将介绍不同公司的案例研究,涉及的应用领域包括搜索和推荐系统、销售、贷款和欺诈检测。最后,根据我们在工业界的经验,我们将确定数据挖掘/机器学习社区的开放问题和研究方向。

https://sites.google.com/view/www20-explainable-ai-tutorial

成为VIP会员查看完整内容
0
179

主题: 《COMS W4995 Applied Machine Learning Spring 2020》

课程描述: 这门课提供了机器学习和数据科学的实践方法。本课程讨论机器学习方法如SVMs、随机森林、梯度提升和神经网络在真实世界数据集上的应用,包括数据准备、模型选择和评估。这个类补充了COMS W4721,因为它完全依赖于scikit-learn和tensor flow中所有实现的可用开源实现。除了应用模型外,我们还将讨论与产生离子化机器学习模型相关的软件开发工具和实践。

主讲人简介: Andreas C. Müller,哥伦比亚大学数据科学研究所的副研究员,也是O'Reilly《用Python进行机器学习简介》一书的作者。他是scikit学习机学习库的核心开发人员之一,我已经合作维护了几年。他曾在纽约大学数据科学中心从事开源和开放科学研究,并在亚马逊担任机器学习科学家。个人主页:http://amueller.github.io/

成为VIP会员查看完整内容
0
21

讲座题目

社会用户兴趣挖掘:方法与应用:Social User Interest Mining: Methods and Applications

讲座简介

社交网络上丰富的用户生成内容提供了建立模型的机会,这些模型能够准确有效地提取、挖掘和预测用户的兴趣,希望能够实现更有效的用户参与、更好质量地提供适当的服务和更高的用户满意度。虽然传统的建立用户档案的方法依赖于基于人工智能的偏好获取技术,这些技术可能被用户认为是侵入性的和不受欢迎的,但最近的进展集中在确定用户兴趣和偏好的非侵入性但准确的方法上。在本教程中,我们将介绍与有效挖掘用户兴趣相关的五个重要方面: 1)用于提取用户兴趣的信息源 2)文献中提出的各类用户兴趣简介 3)为挖掘用户利益而采用或提议的技术 4)最新方法的可扩展性和资源需求 5)文献中采用的评估方法,用于验证挖掘的用户兴趣概要的适当性。我们还将介绍现有的挑战、开放的研究问题和激动人心的工作机会。

讲座嘉宾

Fattane Zarrinkalam博士是Ryerson大学系统、软件和语义实验室(LS3)的博士后研究员,她在那里从事与支持语义的社交网络分析相关的项目。在博士研究期间,她专注于根据社交网络(尤其是Twitter)上的个人和集体行为来识别社交媒体用户的兴趣。她在CIKM、ESWC和ECIR等场馆发表了自己的作品。此外,她还在包括信息检索、信息处理和管理在内的顶级期刊上发表期刊论文。此外,在她攻读博士学位期间,她参与了两项向美国专利局提出的专利申请。

成为VIP会员查看完整内容
0
33

主题: Causal Confusion in Imitation Learning

简介: 行为克隆通过训练判别模型来预测观察到的专家行为,从而将策略学习转换为监督学习,这样的判别模型不是因果关系,因为训练过程并不了解专家与环境之间相互作用的因果结构。我们认为,由于模仿学习中的分布变化,忽略因果关系尤其有害。特别是,这会导致违反直觉的“因果识别错误”现象:访问更多信息可能会导致性能下降。我们调查了此问题的产生方式,并提出了一种解决方案,可通过有针对性的干预措施(环境互动或专家查询)来解决,以确定正确的因果模型。

嘉宾介绍: Dinesh Jayaraman,宾夕法尼亚大学的新任助理教授,还是Facebook AI Research的客座研究员,致力于视觉和机器人技术的交叉问题,在此之前,曾是加州大学伯克利分校伯克利人工智能研究实验室的博士后。

Pim de Haan,高通 AI的助理研究员,研究方向机器学习和数学几何的交叉。

成为VIP会员查看完整内容
0
22

讲座题目

工业中可解释的人工智能:Fake News Research: Theories, Detection Strategies, and Open Problems

讲座简介

人工智能在决定我们的日常经验方面越来越发挥着不可或缺的作用。此外,随着基于人工智能的解决方案在招聘、借贷、刑事司法、医疗和教育等领域的普及,人工智能对个人和职业的影响是深远的。人工智能模型在这些领域发挥的主导作用导致人们越来越关注这些模型中可能存在的偏见,以及对模型透明度和可解释性的需求。此外,模型可解释性是在需要可靠性和安全性的高风险领域(如医疗保健和自动化运输)和具有重大经济意义的关键工业应用(如预测性维护、自然资源勘探和气候变化模型。 因此,人工智能研究者和实践者把注意力集中在可解释的人工智能上,以帮助他们更好地信任和理解大规模的模型。研究界面临的挑战包括(i)定义模型可解释性,(ii)制定可解释性任务以理解模型行为并为这些任务制定解决方案,最后(iii)设计评估模型在可解释性任务中的性能的措施。 在本教程中,我们将概述人工智能中模型的可解释性和可解释性、关键法规/法律以及作为人工智能/建模语言系统一部分提供可解释性的技术/工具。然后,我们将重点关注可解释性技术在工业中的应用,其中我们提出了有效使用可解释性技术的实际挑战/指导方针,以及为多个web规模的机器学习和数据挖掘应用部署可解释模型的经验教训。我们将介绍跨不同公司的案例研究,涉及招聘、销售、贷款和欺诈检测等应用领域。最后,根据我们在行业中的经验,我们将确定数据挖掘/机器学习社区的开放性问题和研究方向。

讲座嘉宾

Krishna Gade是Fiddler Labs的创始人兼首席执行官,Fiddler Labs是一家企业初创企业,它构建了一个可解释的人工智能引擎,以解决人工智能中有关偏见、公平性和透明度的问题。克里希纳是一位企业家和工程领袖,在创建可扩展平台和令人愉悦的消费品方面有着丰富的技术经验,他曾在Facebook、Pinterest、Twitter和微软担任高级工程领导职务。他曾多次应邀在著名的从业人员论坛上发表演讲,包括在2019年的Strata Data Conference上就解决人工智能中的偏见、公平性和透明度问题发表演讲.

成为VIP会员查看完整内容
0
43

讲座题目

假设检验与统计声音模式挖掘:Hypothesis Testing and Statistically-sound Pattern Mining

讲座简介

大量数据集的可用性突出表明,需要计算效率高、统计上可靠的方法来提取模式,同时对结果的质量提供严格的保证,特别是在错误发现方面。在本教程中,我们将介绍最近的一些方法,这些方法适当地结合了计算和统计方面的考虑,以便有效地从大型数据集中挖掘统计上可靠的模式。我们首先介绍统计假设检验中的基本概念,数据挖掘社区中的每个人可能都不熟悉这些概念。然后,我们将解释如何以不同的方式处理模式挖掘中的计算和统计挑战。最后,我们描述了这些方法在市场篮分析、子图挖掘、社会网络分析和癌症基因组学等领域的应用。本教程的目的是向观众介绍统计假设测试,强调正确平衡模式挖掘的计算和统计方面的重要性,强调这样做对数据挖掘研究人员的有用性,并鼓励在这方面的进一步研究。

讲座嘉宾

Leonardo Pellegrina是帕多瓦大学信息工程系信息工程专业的博士生,由法比奥·范丁教授和布朗大学客座研究员指导。他的研究活动集中在高效和统计上合理的算法,用于从大数据中发现模式,并应用到计算生物学。

成为VIP会员查看完整内容
0
17

近几年来,随着机器学习的普及,机器学习系统的公平性问题引起了实际的道德、社会等问题。图书《公平性与机器学习—局限与机遇》以公平性为核心问题来看待机器学习,提供了对当前机器学习实践以及为实现公平而提出的技术修复方案的批判性思考。

社会、道德和机器学习自身等角度,介绍了目前机器学习中的公平性问题,如由于数据导致的偏置(bias)等问题。

图书《Fairness and Machine Learning - Limitations and Opportunities》(《公平性与机器学习—局限与机遇》)以公平性为核心问题来看待机器学习,强调机器学习在道德方面的挑战。作者希望该书尽可能地被广泛阅读,但在写作时依然坚持着技术的严谨性。该书并没有提供包罗万象的对公平性完整的正式定义,也没有提出一个快速解决社会对自动决策担忧的修复方案。

解决机器学习公平性问题需要认真理解机器学习工具的局限性。该书提供了对当前机器学习实践以及为实现公平而提出的技术修复方案的批判性思考。虽然这些问题都没有简单的答案,作者希望这本书能够帮助读者更深层次地理解如何构建负责任的机器学习系统。

成为VIP会员查看完整内容
0
48

主题: Safe and Fair Machine Learning

简介:

在这个演讲将讨论一些我们的未来的工作在一个新的框架设计的机器学习算法,内容包括:1)使得算法的用户更容易定义他们认为是不受欢迎的行为(例如,他们认为是不公平的,不安全,或者成本);2)提供了一个高信任度保证它不会产生一个解决方案,展示了用户定义的不受欢迎的行为。

作者简介:

Philip Thomas是马萨诸塞大学安姆斯特分校信息与计算机科学学院助理教授,自主学习实验室联合主任。之前是卡内基·梅隆大学(CMU)的博士后,2015年,在马萨诸塞州立大学阿默斯特分校(UMass Amherst)获得了计算机科学博士学位。主要研究如何确保人工智能(AI)系统的安全性,重点是确保机器学习(ML)算法的安全性和公平性以及创建安全和实用的强化学习(RL)算法。

成为VIP会员查看完整内容
0
8

题目: Safe Machine Learning

简介:

随着我们将ML应用到越来越多的现实任务中,我们正在走向一个ML将在未来社会中扮演越来越重要角色。因此,解决安全问题正成为一个日益紧迫的问题。一般来说,我们可以将当前的安全研究分为三个领域:规范、健壮性和保证。规范关注于调查和开发技术,以减轻由于目标仅仅是期望的替代者而可能出现的系统不期望的行为。这种情况可能会发生,例如,当对包含历史偏差的数据集进行训练时,或者在真实环境中尝试度量增强学习智能体的进度时鲁棒性处理在推断新数据和响应敌对输入时处理系统故障。

Assurance涉及到开发方法,使我们能够理解本质上不透明和黑箱的系统,并在操作期间控制它们。本教程将概述这三个领域,特别关注规范,更具体地说,关注增强学习智能体的公平性和一致性。其目的是激发从事不同安全领域的研究人员之间的讨论。

邀请嘉宾:

Silvia Chiappa是DeepMind机器学习方面的研究科学家。她拥有数学文凭和机器学习博士学位。在加入DeepMind之前,Silvia Chiappa曾在马克斯-普朗克智能系统研究所的经验推理部门、微软剑桥研究院的机器智能与感知小组以及剑桥大学的统计实验室工作。她的研究兴趣是基于贝叶斯和因果推理,图形模型,变分推理,时间序列模型,ML公平性和偏差。

Jan Leike是DeepMind的高级研究科学家,他在那里研究智能体对齐问题。他拥有澳大利亚国立大学的计算机科学博士学位,在那里他致力于理论强化学习。在加入DeepMind之前,他是牛津大学的博士后研究员。Jan的研究兴趣是人工智能安全、强化学习和技术人工智能治理。

成为VIP会员查看完整内容
0
14
小贴士
相关VIP内容
相关资讯
相关论文
A Modern Introduction to Online Learning
Francesco Orabona
15+阅读 · 2019年12月31日
Advances and Open Problems in Federated Learning
Peter Kairouz,H. Brendan McMahan,Brendan Avent,Aurélien Bellet,Mehdi Bennis,Arjun Nitin Bhagoji,Keith Bonawitz,Zachary Charles,Graham Cormode,Rachel Cummings,Rafael G. L. D'Oliveira,Salim El Rouayheb,David Evans,Josh Gardner,Zachary Garrett,Adrià Gascón,Badih Ghazi,Phillip B. Gibbons,Marco Gruteser,Zaid Harchaoui,Chaoyang He,Lie He,Zhouyuan Huo,Ben Hutchinson,Justin Hsu,Martin Jaggi,Tara Javidi,Gauri Joshi,Mikhail Khodak,Jakub Konečný,Aleksandra Korolova,Farinaz Koushanfar,Sanmi Koyejo,Tancrède Lepoint,Yang Liu,Prateek Mittal,Mehryar Mohri,Richard Nock,Ayfer Özgür,Rasmus Pagh,Mariana Raykova,Hang Qi,Daniel Ramage,Ramesh Raskar,Dawn Song,Weikang Song,Sebastian U. Stich,Ziteng Sun,Ananda Theertha Suresh,Florian Tramèr,Praneeth Vepakomma,Jianyu Wang,Li Xiong,Zheng Xu,Qiang Yang,Felix X. Yu,Han Yu,Sen Zhao
17+阅读 · 2019年12月10日
Bernhard Schölkopf
10+阅读 · 2019年11月24日
Lu Liu,Tianyi Zhou,Guodong Long,Jing Jiang,Chengqi Zhang
13+阅读 · 2019年9月11日
Yingtian Zou,Jiashi Feng
7+阅读 · 2019年4月19日
Wen Zhang,Bibek Paudel,Liang Wang,Jiaoyan Chen,Hai Zhu,Wei Zhang,Abraham Bernstein,Huajun Chen
7+阅读 · 2019年3月21日
Hardness-Aware Deep Metric Learning
Wenzhao Zheng,Zhaodong Chen,Jiwen Lu,Jie Zhou
6+阅读 · 2019年3月13日
A Survey of Learning Causality with Data: Problems and Methods
Ruocheng Guo,Lu Cheng,Jundong Li,P. Richard Hahn,Huan Liu
8+阅读 · 2018年9月25日
Qingyao Ai,Vahid Azizi,Xu Chen,Yongfeng Zhang
10+阅读 · 2018年5月9日
Sahisnu Mazumder,Nianzu Ma,Bing Liu
6+阅读 · 2018年2月24日
Top
微信扫码咨询专知VIP会员