Graph federated learning enables the collaborative extraction of high-order information from distributed subgraphs while preserving the privacy of raw data. However, graph data often exhibits overlap among different clients. Previous research has demonstrated certain benefits of overlapping data in mitigating data heterogeneity. However, the negative effects have not been explored, particularly in cases where the overlaps are imbalanced across clients. In this paper, we uncover the unfairness issue arising from imbalanced overlapping subgraphs through both empirical observations and theoretical reasoning. To address this issue, we propose FairGFL (FAIRness-aware subGraph Federated Learning), a novel algorithm that enhances cross-client fairness while maintaining model utility in a privacy-preserving manner. Specifically, FairGFL incorporates an interpretable weighted aggregation approach to enhance fairness across clients, leveraging privacy-preserving estimation of their overlapping ratios. Furthermore, FairGFL improves the tradeoff between model utility and fairness by integrating a carefully crafted regularizer into the federated composite loss function. Through extensive experiments on four benchmark graph datasets, we demonstrate that FairGFL outperforms four representative baseline algorithms in terms of both model utility and fairness.


翻译:图联邦学习能够在保护原始数据隐私的同时,从分布式子图中协同提取高阶信息。然而,图数据通常在不同客户端之间存在重叠。先前的研究已表明重叠数据在缓解数据异质性方面具有一定益处,但其负面影响尚未得到充分探索,尤其是在客户端间重叠分布不均衡的情况下。本文通过实证观察与理论推理,揭示了由不均衡重叠子图所引发的公平性问题。为解决该问题,我们提出FairGFL(公平性感知子图联邦学习),这是一种在隐私保护前提下既能保持模型效用又能提升跨客户端公平性的新型算法。具体而言,FairGFL采用一种可解释的加权聚合方法,通过隐私保护方式估计客户端间的重叠比例,从而增强跨客户端公平性。此外,FairGFL通过将精心设计的正则化项集成到联邦复合损失函数中,优化了模型效用与公平性之间的权衡。在四个基准图数据集上的大量实验表明,FairGFL在模型效用和公平性方面均优于四种代表性基线算法。

0
下载
关闭预览

相关内容

【ICML2023】SEGA:结构熵引导的图对比学习锚视图
专知会员服务
23+阅读 · 2023年5月10日
Python分布式计算,171页pdf,Distributed Computing with Python
专知会员服务
108+阅读 · 2020年5月3日
论文浅尝 | Know-Evolve: Deep Temporal Reasoning for Dynamic KG
开放知识图谱
36+阅读 · 2018年3月30日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
46+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2014年12月31日
VIP会员
相关基金
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
46+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2014年12月31日
Top
微信扫码咨询专知VIP会员