We present a statistical testing framework to detect if a given machine learning classifier fails to satisfy a wide range of group fairness notions. The proposed test is a flexible, interpretable, and statistically rigorous tool for auditing whether exhibited biases are intrinsic to the algorithm or due to the randomness in the data. The statistical challenges, which may arise from multiple impact criteria that define group fairness and which are discontinuous on model parameters, are conveniently tackled by projecting the empirical measure onto the set of group-fair probability models using optimal transport. This statistic is efficiently computed using linear programming and its asymptotic distribution is explicitly obtained. The proposed framework can also be used to test for testing composite fairness hypotheses and fairness with multiple sensitive attributes. The optimal transport testing formulation improves interpretability by characterizing the minimal covariate perturbations that eliminate the bias observed in the audit.


翻译:我们提出了一个统计测试框架,以检测某个机器学习分类师是否未能满足广泛的群体公平概念。提议的测试是一个灵活、可解释和具有统计严谨的工具,用于审计显示的偏差是算法所固有的,还是数据随机性所致。统计挑战可能来自界定群体公平性的多重影响标准,对模型参数而言不连贯,我们通过使用最佳运输方式在一组群体公平概率模型上预测实证措施来方便地解决。这一统计是使用线性编程有效计算,并明确获得无症状分布。拟议的框架还可以用来测试综合公平假设和具有多重敏感属性的公平性。最佳运输测试公式通过将最小的共变相扰动特性定性以消除审计中发现的偏差,提高了可解释性。

0
下载
关闭预览

相关内容

专知会员服务
50+阅读 · 2020年12月14日
【干货书】机器学习速查手册,135页pdf
专知会员服务
122+阅读 · 2020年11月20日
【TAMU】最新《时间序列分析》课程笔记,527页pdf
专知会员服务
177+阅读 · 2020年9月12日
【哈佛大学商学院课程Fall 2019】机器学习可解释性
专知会员服务
99+阅读 · 2019年10月9日
MIT新书《强化学习与最优控制》
专知会员服务
270+阅读 · 2019年10月9日
已删除
将门创投
6+阅读 · 2019年1月2日
Arxiv
0+阅读 · 2021年7月26日
Arxiv
0+阅读 · 2021年7月25日
VIP会员
相关资讯
已删除
将门创投
6+阅读 · 2019年1月2日
Top
微信扫码咨询专知VIP会员