We consider settings in which the right notion of fairness is not captured by simple mathematical definitions (such as equality of error rates across groups), but might be more complex and nuanced and thus require elicitation from individual or collective stakeholders. We introduce a framework in which pairs of individuals can be identified as requiring (approximately) equal treatment under a learned model, or requiring ordered treatment such as "applicant Alice should be at least as likely to receive a loan as applicant Bob". We provide a provably convergent and oracle efficient algorithm for learning the most accurate model subject to the elicited fairness constraints, and prove generalization bounds for both accuracy and fairness. This algorithm can also combine the elicited constraints with traditional statistical fairness notions, thus "correcting" or modifying the latter by the former. We report preliminary findings of a behavioral study of our framework using human-subject fairness constraints elicited on the COMPAS criminal recidivism dataset.


翻译:我们考虑一些环境,在这些环境中,公正的正确概念没有被简单的数学定义所体现(如各群体之间的差错率平等),但可能更为复杂和微妙,因而需要个人或集体利益攸关方的启发。我们引入了一个框架,在这个框架内,可以确定一对个人需要(大约)在学习模式下受到平等待遇,或需要诸如“申请者Alice至少应该象Bob一样有可能得到贷款”等有秩序的处理。我们提供了一种可证实的趋同和节巧的算法,用于学习最准确的模型,但必须受到公平限制,并证明具有一般化的准确性和公正性。这种算法也可以将所形成的制约因素与传统的统计公平概念结合起来,从而“纠正”或修改前者的后者。我们报告了利用COMPAS犯罪累犯数据集引起的人为公平性限制对我们的框架进行的行为研究的初步结果。

0
下载
关闭预览

相关内容

Linux导论,Introduction to Linux,96页ppt
专知会员服务
77+阅读 · 2020年7月26日
强化学习最新教程,17页pdf
专知会员服务
174+阅读 · 2019年10月11日
MIT新书《强化学习与最优控制》
专知会员服务
275+阅读 · 2019年10月9日
已删除
将门创投
5+阅读 · 2019年10月29日
Arxiv
0+阅读 · 2020年11月23日
Arxiv
0+阅读 · 2020年11月19日
VIP会员
相关资讯
已删除
将门创投
5+阅读 · 2019年10月29日
Top
微信扫码咨询专知VIP会员