目前,任何公开使用的技术都要经过审计机制,在这一机制中,我们旨在理解使用该技术的影响和局限性,以及它们为何会产生。由于机器学习(ML)正逐渐成为我们这个时代的普遍技术,并且ML系统引发的偏见议题正在引起关注,因此理解如何审计ML系统是一个真正的关注点。

在本教程中,我们将讨论算法的发展和现有的软件,以解答以下问题:

如何选择一个与应用相容的公平性度量来量化遇到的偏见? 如何准确且高效地量化ML系统预测中遇到的偏见? 如何解释导致不同粒度级别的偏见的不同来源?

成为VIP会员查看完整内容
24

相关内容

【KDD2023教程】大规模图神经网络:过去与新前沿,181页pdf
【2023新书】可解释的深度学习AI:方法和挑战,348页pdf
专知会员服务
168+阅读 · 2023年3月26日
专知会员服务
259+阅读 · 2021年10月8日
综述 | 分布式GNN训练算法和系统,35页pdf
图与推荐
5+阅读 · 2022年11月2日
国家自然科学基金
4+阅读 · 2015年12月31日
国家自然科学基金
46+阅读 · 2015年12月31日
国家自然科学基金
29+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
Arxiv
174+阅读 · 2023年4月20日
A Survey of Large Language Models
Arxiv
495+阅读 · 2023年3月31日
VIP会员
相关VIP内容
【KDD2023教程】大规模图神经网络:过去与新前沿,181页pdf
【2023新书】可解释的深度学习AI:方法和挑战,348页pdf
专知会员服务
168+阅读 · 2023年3月26日
专知会员服务
259+阅读 · 2021年10月8日
相关基金
国家自然科学基金
4+阅读 · 2015年12月31日
国家自然科学基金
46+阅读 · 2015年12月31日
国家自然科学基金
29+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
微信扫码咨询专知VIP会员