【作者简介】
Solon Barocas:微软研究纽约实验室首席研究员,康奈尔大学信息科学系兼职助理教授,哈佛大学伯克曼·克莱因互联网与社会中心教员助理。目前的研究探索了人工智能中的伦理和政策问题,特别是机器学习中的公平性,将问责制引入自动化决策的方法,以及推理的隐私影响。与人共同创办了机器学习中的公平、问责和透明度研讨会(FAT/ML),建立了ACM的公平、问责和透明度会议(FAccT)。
Moritz Hardt:加州大学伯克利分校电气工程和计算机科学系的助理教授。研究算法和机器学习,重点关注可靠性、有效性和社会影响。在获得普林斯顿大学计算机科学博士学位后,他曾在 IBM Research Almaden、Google Research 和 Google Brain 任职。
Arvind Narayanan:普林斯顿大学计算机科学副教授。研究与有关人员的大型数据集相关的风险:匿名、隐私和偏见。领导普林斯顿网络透明度和问责制项目,以揭示公司如何收集和使用我们的个人信息。博士研究表明了去识别化的基本局限性。共同创建了一个大规模开放在线课程以及一本关于比特币和加密货币技术的教科书。Narayanan 是总统科学家和工程师早期职业奖的获得者。
【书稿简介】
这本书给出了一个关于机器学习的观点,它将公平视为一个核心问题,而不是事后的想法。我们将以突出道德挑战的方式回顾机器学习的实践。然后,我们将讨论缓解这些问题的方法。 我们的目标是让本书尽可能地广泛普及,同时保持技术严谨性并解决算法决策中出现的困难道德问题。
这本书不会对公平有一个包罗万象的正式定义,也不会对社会对自动化决策的担忧进行快速的技术解决。解决公平问题需要仔细了解机器学习工具的范围和局限性。本书对当前的机器学习实践进行了批判性分析,并提出了实现公平的技术修复。它没有提供任何简单的答案。尽管如此,我们希望您会发现这本书在深入了解如何负责任地练习机器学习方面既有趣又有用。
为什么现在?
机器学习在从视频监控到自动简历筛选等社会技术系统方面取得了快速进展。与此同时,公众对数字技术对社会的影响也越来越关注。
这两种趋势导致社会技术系统作为研究领域的公平、问责、透明度迅速出现。虽然令人兴奋,但这导致了术语的激增、重新发现和同时发现、学科观点之间的冲突以及其他类型的混淆。
本书旨在通过将长期存在的知识体系(例如因果推理)与社区最近的工作相结合,并加入我们自己的一些观察,从而推动对话向前发展。
这本书是怎么来的?
在 2017 年秋季学期,三位作者分别教授了机器学习中的公平和道德课程:康奈尔大学的巴罗卡斯、伯克利的哈特和普林斯顿大学的纳拉亚南。我们每个人都从不同的角度来探讨这个话题。我们还介绍了两个教程:NIPS 2017 上的 Barocas 和 Hardt,以及 FAT* 2018 上的 Narayanan。这本书源于我们为这三个课程创建的笔记,是我们之间持续对话的结果。
这本书用户是谁? 我们编写这本书的目的是为了对多位读者有用。您可能是机器学习的学生或实践者,在日常工作中面临道德问题。您也可能是一名伦理学者,希望将您的专业知识应用于新兴技术的研究。或者你可能是一个关心自动化系统将如何塑造社会的公民,并且想要比你从新闻报道中获得的更深入的了解。
我们假设您熟悉介绍性计算机科学和算法。了解如何编码并不是阅读本书所必需的,但可以让你充分利用它。我们还将假设您熟悉基本统计数据和概率。在整本书中,我们将包括指向这些主题的介绍性材料的指针。
另一方面,您不需要任何机器学习知识来阅读本书:我们包含了一个介绍基本机器学习概念的附录。我们还提供了关于公平背后的哲学和法律概念的基本讨论。
这本书里有什么? 本书有意缩小范围:您可以在此处查看大纲。这本书的大部分内容都是关于公平的,但我们包括一章这涉及到一些相关的概念:隐私、可解释性、可解释性、透明度和问责制。我们忽略了关于机器学习和人工智能的大量伦理问题,包括自动化导致的劳动力流失、对抗性机器学习和人工智能安全。
同样,我们讨论了狭义的公平决策中的公平干预。我们承认干预可能采取许多其他形式:制定更好的政策、改革机构或颠覆社会的基本结构。
机器学习伦理的狭隘框架可能会吸引技术人员和企业作为一种专注于技术干预同时回避有关权力和问责制的更深层次问题的方式。我们告诫不要这种诱惑。例如,减少人脸识别系统准确性方面的种族差异虽然很有价值,但并不能替代关于此类系统是否应该部署在公共场所以及我们应该实施什么样的监督的辩论。
【书稿提纲】 1 介绍
2 分类
引入正式的非歧视标准,建立它们之间的关系,并说明它们的局限性。
3 法律背景和规范性问题
我们调查了法律、社会学和哲学中关于歧视的文献。然后,我们将讨论在将这些公平理念转化为统计决策设定时所面临的挑战。
4 因果关系
我们深入研究了因果推理的丰富技术库,以及它如何帮助阐明和解决分类范式的缺点,同时提出新的概念和规范问题。
5 在实践中测试歧视
我们将歧视测试系统化,并讨论将它们应用于传统决策系统和算法系统的实际复杂性。
6 更广泛的歧视观
我们回顾了社会中的结构性、组织性和人际歧视,机器学习如何与它们相互作用,并讨论了一系列广泛的潜在干预措施。
7 数据集
数据集是机器学习研究和开发的支柱。我们批判性地检查他们的角色、与数据相关的危害,并调查数据实践中的改进。
8 算法干预
我们调查并系统化了一组新兴的算法干预,旨在促进公平,同时强调这种范式的局限性。
@book{barocas-hardt-narayanan,
title = {Fairness and Machine Learning}, author = {Solon Barocas and Moritz Hardt and Arvind Narayanan}, publisher = {fairmlbook.org}, note = {\url{http://www.fairmlbook.org}}, year = {2019} }