过去几十年见证了人工智能(AI)技术的崛起。然而,最近的研究表明,人工智能算法可能不值得信任。例如,他们可能容易受到轻微扰动输入数据;他们可能会对某些群体表现出偏见和刻板印象,从而破坏公平;由于他们不透明的模型架构,他们的决定可能很难解释。随着人工智能应用在日常生活中的广泛应用,一个人工智能算法是否可信已经成为研究人员、开发人员和用户非常关注的问题。最近,出现了大量关于可信人工智能的研究。在本教程中,我们旨在从计算的角度全面概述可信人工智能的前沿研究进展。具体来说,我们关注实现值得信赖的人工智能的六个最重要的方面: (i)隐私,(ii) 安全与鲁棒性,(iii) 可解释性 (iv) 非歧视与公平,(v) 环境福祉和 (vi) 问责性与可审计性。我们将按照一个分类来介绍每个维度的最新技术和实际应用,并讨论各个维度之间的一致和冲突的交互作用。此外,我们还将讨论该领域未来可能的研究方向。我们希望通过本教程,研究人员和实践者能够对值得信赖的人工智能有一个广泛的概述和深刻的见解,从而推动该领域的发展。

目录内容:

导论与概念 Introduction and Concepts 隐私性 Dimension I: Privacy 安全性&鲁棒性 Dimension II: Safety & Robustness 可解释性 Dimension III: Explainability 公平性 Dimension IV: Non-discrimination & Fairness Dimension V: Environmental Well- being Dimension VI: Accountability & Auditability Dimension Interactions and Future Directions

成为VIP会员查看完整内容
87

相关内容

【WWW2022教程】自动机器学习推荐系统:基础与进展
专知会员服务
38+阅读 · 2022年4月23日
NeurIPS2020最新《深度对话人工智能》教程,130页ppt
专知会员服务
41+阅读 · 2020年12月10日
【PKDD2020教程】可解释人工智能XAI:算法到应用,200页ppt
专知会员服务
100+阅读 · 2020年10月13日
【RecSys2020干货教程】对抗机器学习推荐系统,186页ppt
专知会员服务
52+阅读 · 2020年10月10日
WWW2022 | 基于因果的推荐算法教程
机器学习与推荐算法
3+阅读 · 2022年5月26日
腾讯AI Lab披露可信AI研究进展,解读20余项原创工作
腾讯AI实验室
2+阅读 · 2022年4月6日
【CIKM2021-Tutorial】图挖掘公平性,166页ppt
专知
1+阅读 · 2021年11月5日
IJCAI2021 | 深度推荐系统教程 (附Slides)
机器学习与推荐算法
1+阅读 · 2021年8月25日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
2+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
1+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
Arxiv
0+阅读 · 2022年6月14日
Arxiv
46+阅读 · 2021年10月4日
Arxiv
14+阅读 · 2020年12月17日
Directions for Explainable Knowledge-Enabled Systems
Arxiv
26+阅读 · 2020年3月17日
VIP会员
相关基金
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
2+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
1+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
微信扫码咨询专知VIP会员