人工智能在与人类生活息息相关的场景中自主决策时,正逐渐面临法律或伦理的问题或风险.可信机器学习是建立安全人工智能系统的核心技术,是人工智能领域的热门研究方向,而公平性是可信机器学习的重要考量.公平性旨在研究机器学习算法决策对个人或群体不存在因其固有或后天属性所引起的偏见或偏爱.本文从公平表征、公平建模和公平决策三个角度出发,以典型案例中不公平问题及其危害为驱动,分析数据和算法中造成不公平的潜在原因,建立机器学习中的公平性抽象定义及其分类体系,进一步研究用于消除不公平的机制.可信机器学习中的公平性研究在人工智能多个领域中处于起步阶段,如计算机视觉、自然语言处理、推荐系统、多智能体系统和联邦学习等.建立具备公平决策能力的人工智能算法,是加速推广人工智能落地的必要条件,且极具理论意义和应用价值.

成为VIP会员查看完整内容
67

相关内容

人工智能模型数据泄露的攻击与防御研究综述
专知会员服务
71+阅读 · 2021年3月31日
专知会员服务
91+阅读 · 2021年1月17日
专知会员服务
63+阅读 · 2021年1月10日
专知会员服务
97+阅读 · 2020年12月8日
专知会员服务
125+阅读 · 2020年8月7日
专知会员服务
220+阅读 · 2020年8月1日
最新《可解释深度学习XDL》2020研究进展综述大全,54页pdf
【中科院信工所】视听觉深度伪造检测技术研究综述
专知会员服务
40+阅读 · 2020年4月15日
多模态视觉语言表征学习研究综述
专知
27+阅读 · 2020年12月3日
联邦学习安全与隐私保护研究综述
专知
12+阅读 · 2020年8月7日
网络安全威胁情报概述
计算机与网络安全
6+阅读 · 2019年8月14日
情感计算综述
人工智能学家
32+阅读 · 2019年4月6日
区块链隐私保护研究综述——祝烈煌详解
计算机研究与发展
22+阅读 · 2018年11月28日
【人工智能】深度学习的应用和价值、深度学习综述
Arxiv
0+阅读 · 2021年4月9日
Arxiv
32+阅读 · 2021年3月8日
Generating Fact Checking Explanations
Arxiv
9+阅读 · 2020年4月13日
Arxiv
38+阅读 · 2020年3月10日
VIP会员
相关VIP内容
人工智能模型数据泄露的攻击与防御研究综述
专知会员服务
71+阅读 · 2021年3月31日
专知会员服务
91+阅读 · 2021年1月17日
专知会员服务
63+阅读 · 2021年1月10日
专知会员服务
97+阅读 · 2020年12月8日
专知会员服务
125+阅读 · 2020年8月7日
专知会员服务
220+阅读 · 2020年8月1日
最新《可解释深度学习XDL》2020研究进展综述大全,54页pdf
【中科院信工所】视听觉深度伪造检测技术研究综述
专知会员服务
40+阅读 · 2020年4月15日
相关资讯
多模态视觉语言表征学习研究综述
专知
27+阅读 · 2020年12月3日
联邦学习安全与隐私保护研究综述
专知
12+阅读 · 2020年8月7日
网络安全威胁情报概述
计算机与网络安全
6+阅读 · 2019年8月14日
情感计算综述
人工智能学家
32+阅读 · 2019年4月6日
区块链隐私保护研究综述——祝烈煌详解
计算机研究与发展
22+阅读 · 2018年11月28日
【人工智能】深度学习的应用和价值、深度学习综述
微信扫码咨询专知VIP会员