Algorithmic fairness is typically studied from the perspective of predictions. Instead, here we investigate fairness from the perspective of recourse actions suggested to individuals to remedy an unfavourable classification. We propose two new fairness criteria at the group and individual level, which -- unlike prior work on equalising the average group-wise distance from the decision boundary -- explicitly account for causal relationships between features, thereby capturing downstream effects of recourse actions performed in the physical world. We explore how our criteria relate to others, such as counterfactual fairness, and show that fairness of recourse is complementary to fairness of prediction. We study theoretically and empirically how to enforce fair causal recourse by altering the classifier and perform a case study on the Adult dataset. Finally, we discuss whether fairness violations in the data generating process revealed by our criteria may be better addressed by societal interventions as opposed to constraints on the classifier.


翻译:通常从预测的角度来研究算法公平性。 相反,我们在这里从向个人建议纠正不利分类的追索行动的角度来研究公平性。我们提议在群体和个人一级采用两种新的公平标准,这与以前关于平均群体距离与决定界限之间的平均平衡工作不同,明确说明各特征之间的因果关系,从而捕捉在物理世界中采取追索行动的下游影响。我们探讨我们的标准与其他人的关系,例如反事实公平性,并表明追索的公平性是对预测的公平性的补充。我们从理论上和经验上研究如何通过改变分类和对成人数据集进行案例研究来实施公平的因果追索。最后,我们讨论我们的标准所揭示的生成数据过程中的公平性侵犯行为是否最好通过社会干预而不是对分类者的限制来解决。

0
下载
关闭预览

相关内容

因果图,Causal Graphs,52页ppt
专知会员服务
246+阅读 · 2020年4月19日
【哈佛大学商学院课程Fall 2019】机器学习可解释性
专知会员服务
103+阅读 · 2019年10月9日
最新BERT相关论文清单,BERT-related Papers
专知会员服务
52+阅读 · 2019年9月29日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Disentangled的假设的探讨
CreateAMind
9+阅读 · 2018年12月10日
已删除
将门创投
6+阅读 · 2017年11月27日
Arxiv
0+阅读 · 2021年7月31日
Arxiv
14+阅读 · 2020年12月17日
Arxiv
5+阅读 · 2020年12月10日
Arxiv
3+阅读 · 2020年5月1日
Meta-Learning to Cluster
Arxiv
17+阅读 · 2019年10月30日
VIP会员
相关VIP内容
相关资讯
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Disentangled的假设的探讨
CreateAMind
9+阅读 · 2018年12月10日
已删除
将门创投
6+阅读 · 2017年11月27日
Top
微信扫码咨询专知VIP会员