As the representations output by Graph Neural Networks (GNNs) are increasingly employed in real-world applications, it becomes important to ensure that these representations are fair and stable. In this work, we establish a key connection between counterfactual fairness and stability and leverage it to propose a novel framework, NIFTY (uNIfying Fairness and stabiliTY), which can be used with any GNN to learn fair and stable representations. We introduce a novel objective function that simultaneously accounts for fairness and stability and develop a layer-wise weight normalization using the Lipschitz constant to enhance neural message passing in GNNs. In doing so, we enforce fairness and stability both in the objective function as well as in the GNN architecture. Further, we show theoretically that our layer-wise weight normalization promotes counterfactual fairness and stability in the resulting representations. We introduce three new graph datasets comprising of high-stakes decisions in criminal justice and financial lending domains. Extensive experimentation with the above datasets demonstrates the efficacy of our framework.


翻译:由于图形神经网络(GNNs)在现实世界应用中越来越多地采用代表产出,因此必须确保这些代表是公平和稳定的。在这项工作中,我们在反事实公正和稳定之间建立起关键联系,并利用它提出一个新的框架,即NIFTY(Unifying Fairnity and sability),与任何GNN一起学习公平和稳定的代表。我们引入了一个新的客观功能,既考虑公平和稳定,又利用Lipschitz常数发展一个分层加权正常化,以加强GNNs传递的神经信息。我们这样做是为了在目标功能和GNN结构中实施公正和稳定。此外,我们从理论上表明,我们分层的权重正常化促进了由此产生的代表的反事实公正和稳定。我们引入了三个新的图表数据集,其中包括刑事司法和金融贷款领域的高决策。对上述数据集的广泛实验显示了我们框架的功效。

0
下载
关闭预览

相关内容

专知会员服务
54+阅读 · 2019年12月22日
【哈佛大学商学院课程Fall 2019】机器学习可解释性
专知会员服务
104+阅读 · 2019年10月9日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
Disentangled的假设的探讨
CreateAMind
9+阅读 · 2018年12月10日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
Financial Time Series Representation Learning
Arxiv
10+阅读 · 2020年3月27日
Arxiv
35+阅读 · 2020年1月2日
Continual Unsupervised Representation Learning
Arxiv
7+阅读 · 2019年10月31日
VIP会员
相关资讯
Top
微信扫码咨询专知VIP会员