One of many impediments to applying graph neural networks (GNNs) to large-scale real-world graph data is the challenge of centralized training, which requires aggregating data from different organizations, raising privacy concerns. Federated graph learning (FGL) addresses this by enabling collaborative GNN model training without sharing private data. However, a core challenge in FGL systems is the variation in local training data distributions among clients, known as the data heterogeneity problem. Most existing solutions suffer from two problems: (1) The typical optimizer based on empirical risk minimization tends to cause local models to fall into sharp valleys and weakens their generalization to out-of-distribution graph data. (2) The prevalent dimensional collapse in the learned representations of local graph data has an adverse impact on the classification capacity of the GNN model. To this end, we formulate a novel optimization objective that is aware of the sharpness (i.e., the curvature of the loss surface) of local GNN models. By minimizing the loss function and its sharpness simultaneously, we seek out model parameters in a flat region with uniformly low loss values, thus improving the generalization over heterogeneous data. By introducing a regularizer based on the correlation matrix of local representations, we relax the correlations of representations generated by individual local graph samples, so as to alleviate the dimensional collapse of the learned model. The proposed \textbf{S}harpness-aware f\textbf{E}derated gr\textbf{A}ph \textbf{L}earning (SEAL) algorithm can enhance the classification accuracy and generalization ability of local GNN models in federated graph learning. Experimental studies on several graph classification benchmarks show that SEAL consistently outperforms SOTA FGL baselines and provides gains for more participants.


翻译:将图神经网络应用于大规模现实世界图数据的主要障碍之一是集中式训练的挑战,这需要聚合来自不同组织的数据,从而引发隐私担忧。联邦图学习通过在不共享私有数据的情况下实现协作式图神经网络模型训练来解决这一问题。然而,联邦图学习系统的一个核心挑战在于客户端间本地训练数据分布的差异,即数据异构性问题。现有大多数解决方案存在两个问题:(1) 基于经验风险最小化的典型优化器容易导致本地模型陷入尖锐谷值,削弱其对分布外图数据的泛化能力。(2) 本地图数据学习表示中普遍存在的维度坍缩对图神经网络模型的分类能力产生不利影响。为此,我们提出了一种新颖的优化目标,该目标关注本地图神经网络模型的锐度(即损失曲面的曲率)。通过同时最小化损失函数及其锐度,我们寻找位于平坦区域且具有均匀低损失值的模型参数,从而提升对异构数据的泛化性能。通过引入基于本地表示相关矩阵的正则化器,我们松弛了由单个本地图样本生成的表示之间的相关性,以缓解学习模型的维度坍缩。所提出的\\textbf{S}harpness-aware f\\textbf{E}derated gr\\textbf{A}ph \\textbf{L}earning算法能够增强联邦图学习中本地图神经网络模型的分类精度与泛化能力。在多个图分类基准上的实验研究表明,SEAL算法持续优于最先进的联邦图学习基线方法,并为更多参与者带来性能增益。

0
下载
关闭预览

相关内容

【ECCV2024】开放世界动态提示与持续视觉表征学习
专知会员服务
25+阅读 · 2024年9月10日
鲁棒和隐私保护的协同学习
专知会员服务
38+阅读 · 2021年12月22日
【ICML2020】持续终身学习的神经主题建模
专知会员服务
39+阅读 · 2020年6月22日
国家自然科学基金
17+阅读 · 2017年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
16+阅读 · 2013年12月31日
Arxiv
0+阅读 · 12月18日
Arxiv
0+阅读 · 12月13日
VIP会员
相关VIP内容
【ECCV2024】开放世界动态提示与持续视觉表征学习
专知会员服务
25+阅读 · 2024年9月10日
鲁棒和隐私保护的协同学习
专知会员服务
38+阅读 · 2021年12月22日
【ICML2020】持续终身学习的神经主题建模
专知会员服务
39+阅读 · 2020年6月22日
相关基金
国家自然科学基金
17+阅读 · 2017年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
16+阅读 · 2013年12月31日
Top
微信扫码咨询专知VIP会员