可信机器学习的公平性综述(中文版),24页pdf

2021 年 2 月 23 日 专知

  人工智能在与人类生活息息相关的场景中自主决策时,正逐渐面临法律或伦理的问题或风险.可信机器学习是建立安全人工智能系统的核心技术,是人工智能领域的热门研究方向,而公平性是可信机器学习的重要考量.公平性旨在研究机器学习算法决策对个人或群体不存在因其固有或后天属性所引起的偏见或偏爱.本文从公平表征、公平建模和公平决策三个角度出发,以典型案例中不公平问题及其危害为驱动,分析数据和算法中造成不公平的潜在原因,建立机器学习中的公平性抽象定义及其分类体系,进一步研究用于消除不公平的机制.可信机器学习中的公平性研究在人工智能多个领域中处于起步阶段,如计算机视觉、自然语言处理、推荐系统、多智能体系统和联邦学习等.建立具备公平决策能力的人工智能算法,是加速推广人工智能落地的必要条件,且极具理论意义和应用价值.


机器学习通过计算的手段,利用以数据形式存在的经验来改善系统的能力与性能[1].机器学习是智能计算 的核心技术,受到了学术界和产业界的广泛关注,在计算机视觉、自然语言处理、语音识别、数据挖掘和信息 检索等应用领域取得了巨大突破.随着人类社会被机器学习逐渐渗透,机器学习技术影响着人们生活,如果利用 不当,甚至会损害人类的利益.人类和机器学习的关系也引发了新的法律、伦理以及技术问题.例如,优步无人 驾驶系统设计中没有考虑到不守规则、横闯马路的行人,导致致命的交通事故;脸书用户资料遭剑桥分析公司 窃取,该公司基于窃取的用户资料有针对性地推送政治广告,涉嫌操纵舆论宣传.在这样的背景下,机器学习的 可信属性孕育而出[2][3],即公平性、隐私性[4][5]、透明性、鲁棒性和可解释性[6]等,并受到国际各界的重视.欧洲 联盟委员会于 2019 年 4 月发布《可信人工智能的伦理指南》 ;美国国家科学技术委员会于 2019 年 6 月更新 《国家人工智能研究与发展战略规划》,重点关注机器学习算法的合法性、道德性和鲁棒性 ;中国科技部于同 月发布《新一代人工智能治理原则——发展负责任的人工智能》,提出人工智能治理的框架和行动指南 .


公平指处理事情合情合理,不偏袒任何一方.公平机器学习算法指在决策过程中,对个人或群体不存在因其 固有或后天的属性所引起的偏见或偏爱[7].机器学习算法因数据驱动可能在无意中编码人类偏见.一个典型案 例 是 ProPublica 组 织 发 现 美 国 法 院 使 用 的 替 代 性 制 裁 犯 罪 矫 正 管 理 剖 析 软 件 (Correctional Offender Management Profiling for Alternative Sanctions, COMPAS)将非裔美国被告人与高风险累犯评分联系在一起,从 而给予更严厉的监禁判决 .除此之外,雇佣、保险和广告等领域也发现了类似问题. 


算法公平性是机器学习向善的重要主题之一,建立合理的模型保证算法的决策客观,是加速推广机器学习 落地的必要条件,具有理论意义和应用价值.美国计算机学会 ACM 于 2018 年开始专门设立 FAccT 会议 ,研讨 包括计算机科学、统计学、法律、社会科学和人文科学等交叉领域的公平性、问责制和透明度问题.此外,包 括 ICML、NeurIPS 和 AAAI 在内的多个人工智能重要国际会议专门设置研究专题讨论公平机器学习.


http://www.jos.org.cn/jos/ch/reader/view_abstract.aspx?file_no=6214&flag=1





在政府机构指导性原则引导下,学术界和产业界正着力推动公平机器学习理论、技术及应用发展.本文的 主旨是梳理目前机器学习公平性研究的现状,并为后续研究提供可借鉴的思路.机器学习算法通常包括以下关 键环节:数据所有者采集数据,模型提供者设计算法,算法使用者运行并做出决策.公平机器学习研究的关键问 题是如何建立以法律、伦理、社会学为引导的公平性定义,以及如何设计公平性定义驱动的公平机器学习算 法.图 1总体介绍公平机器学习算法设计流程框架.首先,明确公平目标,即确定符合应用需求的公平性目标,常用 的公平性目标包括感知公平性、统计公平性和因果公平性.其次,明确公平任务,即确定面向公平目标的算法公 平性提升任务,包括公平表征任务、公平建模任务和公平决策任务.公平表征任务旨在建立公平数据集或提取 公平数据特征;公平建模任务旨在建立公平机器学习模型;而公平决策任务将机器学习模型视为黑盒模型,旨在 利用其输出结果进行公平决策.处理机制的选择通常对应机器学习算法关键环节,具体包括预处理机制、处理 中机制和后处理机制.最后,从理论分析和实验评估两个角度分别验证公平机器学习的表现.本文的主要贡献如 下:明确公平机器学习算法设计流程框架,形式化公平性定义,给出公平性定义的分类体系,总结并综述三类公 平性任务,系统性梳理未来研究方向,有助于指导后续研究者针对公平性理论的研究和探索.本文的框架组织如 下:第1章列举算法不公平产生的危害,探讨造成该现象的潜在原因,提供消除算法偏差的机制;第0章提取机器 学习中公平性定义的抽象模型,比较现有机器学习的公平性定义;第0章详述解决公平表征任务、公平建模任 务和公平决策任务的具体方法;第4章举例说明公平机器学习的应用,并列举供研究的数据集和检测工具;第5章 指出公平机器学习的研究问题及其面临的挑战;第6章对全文进行总结.


专知便捷查看

便捷下载,请关注专知公众号(点击上方蓝色专知关注)

  • 后台回复“可信机器学习” 可以获取《可信机器学习的公平性综述》专知下载链接索引

专知,专业可信的人工智能知识分发,让认知协作更快更好!欢迎注册登录专知www.zhuanzhi.ai,获取5000+AI主题干货知识资料!
欢迎微信扫一扫加入专知人工智能知识星球群,获取最新AI专业干货知识教程资料和与专家交流咨询
点击“ 阅读原文 ”,了解使用 专知 ,查看获取5000+AI主题知识资源
登录查看更多
6

相关内容

可信机器学习的公平性综述
专知会员服务
67+阅读 · 2021年2月23日
专知会员服务
187+阅读 · 2021年2月4日
专知会员服务
111+阅读 · 2020年12月31日
图神经网络综述 (中文版),14页pdf
专知会员服务
331+阅读 · 2020年11月24日
最新《监督机器学习可解释性》2020大综述论文,74页pdf
专知会员服务
129+阅读 · 2020年11月19日
最新《可解释机器学习:原理与实践》综述论文,33页pdf
专知会员服务
159+阅读 · 2020年10月10日
最新《可解释深度学习XDL》2020研究进展综述大全,54页pdf
最新《多任务学习》综述,39页pdf
专知
28+阅读 · 2020年7月10日
人工智能应用实践与趋势
人工智能学家
13+阅读 · 2019年9月20日
网络安全威胁情报概述
计算机与网络安全
6+阅读 · 2019年8月14日
美国国会引入《2019年算法责任法案》
蚂蚁金服评论
66+阅读 · 2019年6月13日
深度学习时代的图模型,清华发文综述图网络
全球人工智能
6+阅读 · 2018年12月24日
Arxiv
18+阅读 · 2021年3月16日
A Survey of Deep Learning for Scientific Discovery
Arxiv
29+阅读 · 2020年3月26日
Arxiv
35+阅读 · 2019年11月7日
Deep Learning for Deepfakes Creation and Detection
Arxiv
6+阅读 · 2019年9月25日
Deep Anomaly Detection with Outlier Exposure
Arxiv
17+阅读 · 2018年12月21日
Arxiv
3+阅读 · 2018年11月19日
Arxiv
12+阅读 · 2018年9月5日
VIP会员
相关VIP内容
可信机器学习的公平性综述
专知会员服务
67+阅读 · 2021年2月23日
专知会员服务
187+阅读 · 2021年2月4日
专知会员服务
111+阅读 · 2020年12月31日
图神经网络综述 (中文版),14页pdf
专知会员服务
331+阅读 · 2020年11月24日
最新《监督机器学习可解释性》2020大综述论文,74页pdf
专知会员服务
129+阅读 · 2020年11月19日
最新《可解释机器学习:原理与实践》综述论文,33页pdf
专知会员服务
159+阅读 · 2020年10月10日
最新《可解释深度学习XDL》2020研究进展综述大全,54页pdf
相关资讯
相关论文
Arxiv
18+阅读 · 2021年3月16日
A Survey of Deep Learning for Scientific Discovery
Arxiv
29+阅读 · 2020年3月26日
Arxiv
35+阅读 · 2019年11月7日
Deep Learning for Deepfakes Creation and Detection
Arxiv
6+阅读 · 2019年9月25日
Deep Anomaly Detection with Outlier Exposure
Arxiv
17+阅读 · 2018年12月21日
Arxiv
3+阅读 · 2018年11月19日
Arxiv
12+阅读 · 2018年9月5日
Top
微信扫码咨询专知VIP会员