With the widespread deployment of large-scale prediction systems in high-stakes domains, e.g., face recognition, criminal justice, etc., disparity on prediction accuracy between different demographic subgroups has called for fundamental understanding on the source of such disparity and algorithmic intervention to mitigate it. In this paper, we study the accuracy disparity problem in regression. To begin with, we first propose an error decomposition theorem, which decomposes the accuracy disparity into the distance between marginal label distributions and the distance between conditional representations, to help explain why such accuracy disparity appears in practice. Motivated by this error decomposition and the general idea of distribution alignment with statistical distances, we then propose an algorithm to reduce this disparity, and analyze its game-theoretic optima of the proposed objective functions. To corroborate our theoretical findings, we also conduct experiments on five benchmark datasets. The experimental results suggest that our proposed algorithms can effectively mitigate accuracy disparity while maintaining the predictive power of the regression models.


翻译:由于在高取域(如面部识别、刑事司法等)广泛部署大规模预测系统,不同人口分组之间在预测准确性方面的差异要求从根本上了解这种差异的来源,并进行算法干预以缓解这种差异。在本文中,我们研究了回归中的准确性差异问题。首先,我们提出一个错误分解标语,将准确性差异分解到边缘标签分布和有条件表述之间的距离上,以帮助解释为什么在实践中出现这种准确性差异。受这一错误分解和与统计距离相匹配的一般想法的驱使,我们随后提出了一种算法,以缩小这一差异,并分析其拟议客观功能的游戏理论选择。为了证实我们的理论结论,我们还在五个基准数据集上进行了实验。实验结果表明,我们提议的算法可以有效地减少准确性差异,同时保持回归模型的预测力。

0
下载
关闭预览

相关内容

机器学习系统设计系统评估标准
专知会员服务
51+阅读 · 2020年12月14日
图卷积神经网络蒸馏知识,Distillating Knowledge from GCN
专知会员服务
95+阅读 · 2020年3月25日
[综述]深度学习下的场景文本检测与识别
专知会员服务
78+阅读 · 2019年10月10日
【哈佛大学商学院课程Fall 2019】机器学习可解释性
专知会员服务
105+阅读 · 2019年10月9日
MIT新书《强化学习与最优控制》
专知会员服务
280+阅读 · 2019年10月9日
Hierarchically Structured Meta-learning
CreateAMind
27+阅读 · 2019年5月22日
Disentangled的假设的探讨
CreateAMind
9+阅读 · 2018年12月10日
已删除
将门创投
4+阅读 · 2018年11月6日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
Knowledge Distillation from Internal Representations
Arxiv
4+阅读 · 2019年10月8日
VIP会员
相关资讯
Hierarchically Structured Meta-learning
CreateAMind
27+阅读 · 2019年5月22日
Disentangled的假设的探讨
CreateAMind
9+阅读 · 2018年12月10日
已删除
将门创投
4+阅读 · 2018年11月6日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
Top
微信扫码咨询专知VIP会员