Graph representation learning has become a ubiquitous component in many scenarios, ranging from social network analysis to energy forecasting in smart grids. In several applications, ensuring the fairness of the node (or graph) representations with respect to some protected attributes is crucial for their correct deployment. Yet, fairness in graph deep learning remains under-explored, with few solutions available. In particular, the tendency of similar nodes to cluster on several real-world graphs (i.e., homophily) can dramatically worsen the fairness of these procedures. In this paper, we propose a biased edge dropout algorithm (FairDrop) to counter-act homophily and improve fairness in graph representation learning. FairDrop can be plugged in easily on many existing algorithms, is efficient, adaptable, and can be combined with other fairness-inducing solutions. After describing the general algorithm, we demonstrate its application on two benchmark tasks, specifically, as a random walk model for producing node embeddings, and to a graph convolutional network for link prediction. We prove that the proposed algorithm can successfully improve the fairness of all models up to a small or negligible drop in accuracy, and compares favourably with existing state-of-the-art solutions. In an ablation study, we demonstrate that our algorithm can flexibly interpolate between biasing towards fairness and an unbiased edge dropout. Furthermore, to better evaluate the gains, we propose a new dyadic group definition to measure the bias of a link prediction task when paired with group-based fairness metrics. In particular, we extend the metric used to measure the bias in the node embeddings to take into account the graph structure.


翻译:从社会网络分析到智能电网的能源预测,许多情景中,图形代表学习已成为一个无处不在的组成部分,从社会网络分析到智能电网的能源预测。 在一些应用中,确保节点(或图形)表达对于某些受保护属性的公平性对于正确部署至关重要。 然而,图形深层学习的公平性仍然未得到充分探讨,而且几乎没有什么解决办法。特别是,类似节点对多个现实世界图表(即同质)的分组的倾向会大大恶化这些程序的公平性。在本文中,我们建议有偏差的边缘退出算法(FairDrop),以对抗同质行为,提高图形代表学习的公平性。公平性Drop可以很容易地插入许多现有的算法,是高效的、适应性的,并且可以与其他促进公平性的解决办法相结合。在描述一般算法之后,我们将其应用于两个基准任务,具体地说,作为一个随机行走模式,用来制作不偏向嵌嵌式,以及用于连接预测的曲线网络。我们证明拟议的算法可以成功地提高所有模型的公平性,到一个小或小或微小的准确性比例的准确性比例,我们所使用的计算方法可以显示我们用来显示一个更精确的准确性计算。

0
下载
关闭预览

相关内容

【清华大学】图随机神经网络,Graph Random Neural Networks
专知会员服务
154+阅读 · 2020年5月26日
ICLR2019最佳论文出炉
专知
12+阅读 · 2019年5月6日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
无监督元学习表示学习
CreateAMind
27+阅读 · 2019年1月4日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
Disentangled的假设的探讨
CreateAMind
9+阅读 · 2018年12月10日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
人工智能 | 国际会议截稿信息9条
Call4Papers
4+阅读 · 2018年3月13日
【论文】图上的表示学习综述
机器学习研究会
14+阅读 · 2017年9月24日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
Arxiv
56+阅读 · 2021年5月3日
Arxiv
7+阅读 · 2021年4月30日
Pointer Graph Networks
Arxiv
7+阅读 · 2020年6月11日
Signed Graph Attention Networks
Arxiv
7+阅读 · 2019年9月5日
VIP会员
相关VIP内容
【清华大学】图随机神经网络,Graph Random Neural Networks
专知会员服务
154+阅读 · 2020年5月26日
相关资讯
ICLR2019最佳论文出炉
专知
12+阅读 · 2019年5月6日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
无监督元学习表示学习
CreateAMind
27+阅读 · 2019年1月4日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
Disentangled的假设的探讨
CreateAMind
9+阅读 · 2018年12月10日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
人工智能 | 国际会议截稿信息9条
Call4Papers
4+阅读 · 2018年3月13日
【论文】图上的表示学习综述
机器学习研究会
14+阅读 · 2017年9月24日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
相关论文
Arxiv
56+阅读 · 2021年5月3日
Arxiv
7+阅读 · 2021年4月30日
Pointer Graph Networks
Arxiv
7+阅读 · 2020年6月11日
Signed Graph Attention Networks
Arxiv
7+阅读 · 2019年9月5日
Top
微信扫码咨询专知VIP会员