Group-fairness in classification aims for equality of a predictive utility across different sensitive sub-populations, e.g., race or gender. Equality or near-equality constraints in group-fairness often worsen not only the aggregate utility but also the utility for the least advantaged sub-population. In this paper, we apply the principles of Pareto-efficiency and least-difference to the utility being accuracy, as an illustrative example, and arrive at the Rawls classifier that minimizes the error rate on the worst-off sensitive sub-population. Our mathematical characterization shows that the Rawls classifier uniformly applies a threshold to an ideal score of features, in the spirit of fair equality of opportunity. In practice, such a score or a feature representation is often computed by a black-box model that has been useful but unfair. Our second contribution is practical Rawlsian fair adaptation of any given black-box deep learning model, without changing the score or feature representation it computes. Given any score function or feature representation and only its second-order statistics on the sensitive sub-populations, we seek a threshold classifier on the given score or a linear threshold classifier on the given feature representation that achieves the Rawls error rate restricted to this hypothesis class. Our technical contribution is to formulate the above problems using ambiguous chance constraints, and to provide efficient algorithms for Rawlsian fair adaptation, along with provable upper bounds on the Rawls error rate. Our empirical results show significant improvement over state-of-the-art group-fair algorithms, even without retraining for fairness.


翻译:分类中的群体公平性旨在在不同敏感亚群体(例如种族或性别)之间实现预测效用的平等。群体公平中的平等或近平等制约往往不仅会恶化总体效用,而且会恶化对最不利亚群体的作用。在本文中,我们采用Pareto效率和最小差异原则来应用准确性的实用性,作为说明性例子,并到达Rawls分类,以尽量减少最差敏感亚群体的错误率。我们的数学定性表明,Rawls分类员本着公平机会平等的精神,对理想的特征分数统一适用一个阈值。在实践中,这种分数或特征代表往往不仅会恶化总效用,而且会恶化对最不利亚群体有用但不公平的。我们的第二个贡献是实际的Rawls公平性,对任何一个黑箱深度学习模式进行公平的调整,而不会改变它所理解的分数或特征代表。考虑到任何得分函数或特征代表,而且仅对敏感的亚群体进行二级统计,我们寻求在给定的分数分数或直线性值分数中统一对理想分数分数的分数分数分数分数进行一个阈值分。在实践中,用一个黑箱模型来计算,我们用来计算分数或分数或分数分析结果显示一个比值标准定比率比率,从而得出了我们定的等级定的等级定的等级值比率,从而得出了一个比值比率,从而得出了我们先先先先先算。

0
下载
关闭预览

相关内容

可解释强化学习,Explainable Reinforcement Learning: A Survey
专知会员服务
129+阅读 · 2020年5月14日
Stabilizing Transformers for Reinforcement Learning
专知会员服务
58+阅读 · 2019年10月17日
强化学习最新教程,17页pdf
专知会员服务
174+阅读 · 2019年10月11日
【哈佛大学商学院课程Fall 2019】机器学习可解释性
专知会员服务
103+阅读 · 2019年10月9日
Transferring Knowledge across Learning Processes
CreateAMind
27+阅读 · 2019年5月18日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
无监督元学习表示学习
CreateAMind
27+阅读 · 2019年1月4日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
16+阅读 · 2018年12月24日
Disentangled的假设的探讨
CreateAMind
9+阅读 · 2018年12月10日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
已删除
将门创投
3+阅读 · 2018年4月10日
【学习】Hierarchical Softmax
机器学习研究会
4+阅读 · 2017年8月6日
Arxiv
0+阅读 · 2021年7月21日
Arxiv
7+阅读 · 2021年4月30日
Arxiv
14+阅读 · 2020年12月17日
Learning to Weight for Text Classification
Arxiv
8+阅读 · 2019年3月28日
Adversarial Transfer Learning
Arxiv
12+阅读 · 2018年12月6日
Deep Learning
Arxiv
6+阅读 · 2018年8月3日
Arxiv
7+阅读 · 2018年5月23日
VIP会员
相关VIP内容
相关资讯
Transferring Knowledge across Learning Processes
CreateAMind
27+阅读 · 2019年5月18日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
无监督元学习表示学习
CreateAMind
27+阅读 · 2019年1月4日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
16+阅读 · 2018年12月24日
Disentangled的假设的探讨
CreateAMind
9+阅读 · 2018年12月10日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
已删除
将门创投
3+阅读 · 2018年4月10日
【学习】Hierarchical Softmax
机器学习研究会
4+阅读 · 2017年8月6日
相关论文
Arxiv
0+阅读 · 2021年7月21日
Arxiv
7+阅读 · 2021年4月30日
Arxiv
14+阅读 · 2020年12月17日
Learning to Weight for Text Classification
Arxiv
8+阅读 · 2019年3月28日
Adversarial Transfer Learning
Arxiv
12+阅读 · 2018年12月6日
Deep Learning
Arxiv
6+阅读 · 2018年8月3日
Arxiv
7+阅读 · 2018年5月23日
Top
微信扫码咨询专知VIP会员