Though machine learning models are achieving great success, ex-tensive studies have exposed their disadvantage of inheriting latent discrimination and societal bias from the training data, which hinders their adoption on high-state applications. Thus, many efforts have been taken for developing fair machine learning models. Most of them require that sensitive attributes are available during training to learn fair models. However, in many real-world applications, it is usually infeasible to obtain the sensitive attribute due to privacy or legal issues, which challenges existing fair classifiers. Though the sensitive attribute of each data sample is unknown, we observe that there are usually some non-sensitive features in the training data that are highly correlated with sensitive attributes, which can be used to alleviate the bias. Therefore, in this paper, we study a novel problem of exploring features that are highly correlated with sensitive attributes for learning fair and accurate classifier without sensitive attributes. We theoretically show that by minimizing the correlation between these related features and model prediction, we can learn a fair classifier. Based on this motivation, we propose a novel framework which simultaneously uses these related features for accurate prediction and regularizing the model to be fair. In addition, the model can dynamically adjust the importance weight of each related feature to balance the contribution of the feature on model classification and fairness. Experimental results on real-world datasets demonstrate the effectiveness of the proposed model for learning fair models with high classification accuracy.


翻译:尽管机器学习模式正在取得巨大成功,但早期强化研究暴露了它们从培训数据中继承潜在歧视和社会偏见的不利之处,这妨碍了它们从培训数据中继承潜在的歧视和社会偏见,妨碍了它们被采用高国家应用。因此,已经为开发公平的机器学习模式作出了许多努力。其中多数要求培训期间具备敏感属性,以学习公平模式。然而,在许多现实世界应用中,由于隐私或法律问题而获得敏感属性通常不可行,这给现有的公平分类者提出了挑战。尽管每个数据样本的敏感属性尚不清楚,但我们发现,培训数据中通常有一些与敏感属性高度相关的非敏感特征,可用于缓解偏见。因此,我们在本文件中研究了一个新问题,即探索与敏感属性高度相关特征,以便在没有敏感属性的情况下学习公平、准确的分类。我们理论上表明,通过尽量减少这些相关特征与模型和模型预测之间的关联性,我们可以学习一个公平的分类。基于这一动机,我们提议一个新的框架,同时使用这些相关特征进行准确的预测,并将模型正规化,从而可以用来缓解偏见。此外,我们研究一个新颖的特征,即模型的准确性、高度,可以调整与高度、高度的模型的精确性、高比重度的模型。

0
下载
关闭预览

相关内容

专知会员服务
60+阅读 · 2020年3月19日
【哈佛大学商学院课程Fall 2019】机器学习可解释性
专知会员服务
103+阅读 · 2019年10月9日
最新BERT相关论文清单,BERT-related Papers
专知会员服务
52+阅读 · 2019年9月29日
已删除
将门创投
6+阅读 · 2019年9月3日
灾难性遗忘问题新视角:迁移-干扰平衡
CreateAMind
17+阅读 · 2019年7月6日
ICLR2019最佳论文出炉
专知
12+阅读 · 2019年5月6日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
16+阅读 · 2018年12月24日
Disentangled的假设的探讨
CreateAMind
9+阅读 · 2018年12月10日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
分布式TensorFlow入门指南
机器学习研究会
4+阅读 · 2017年11月28日
Capsule Networks解析
机器学习研究会
11+阅读 · 2017年11月12日
Arxiv
0+阅读 · 2021年6月13日
Arxiv
4+阅读 · 2019年1月14日
VIP会员
相关VIP内容
专知会员服务
60+阅读 · 2020年3月19日
【哈佛大学商学院课程Fall 2019】机器学习可解释性
专知会员服务
103+阅读 · 2019年10月9日
最新BERT相关论文清单,BERT-related Papers
专知会员服务
52+阅读 · 2019年9月29日
相关资讯
已删除
将门创投
6+阅读 · 2019年9月3日
灾难性遗忘问题新视角:迁移-干扰平衡
CreateAMind
17+阅读 · 2019年7月6日
ICLR2019最佳论文出炉
专知
12+阅读 · 2019年5月6日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
16+阅读 · 2018年12月24日
Disentangled的假设的探讨
CreateAMind
9+阅读 · 2018年12月10日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
分布式TensorFlow入门指南
机器学习研究会
4+阅读 · 2017年11月28日
Capsule Networks解析
机器学习研究会
11+阅读 · 2017年11月12日
Top
微信扫码咨询专知VIP会员