Federated learning (FL) enables collaborative model training across distributed clients while preserving data privacy by keeping data local. Traditional FL approaches rely on a centralized, star-shaped topology, where a central server aggregates model updates from clients. However, this architecture introduces several limitations, including a single point of failure, limited personalization, and poor robustness to distribution shifts or vulnerability to malfunctioning clients. Moreover, update selection in centralized FL often relies on low-level parameter differences, which can be unreliable when client data is not independent and identically distributed, and offer clients little control. In this work, we propose a decentralized, peer-to-peer (P2P) FL framework. It leverages the flexibility of the P2P topology to enable each client to identify and aggregate a personalized set of trustworthy and beneficial updates.This framework is the Local Inference Guided Aggregation for Heterogeneous Training Environments to Yield Enhancement Through Agreement and Regularization (LIGHTYEAR). Central to our method is an agreement score, computed on a local validation set, which quantifies the semantic alignment of incoming updates in the function space with respect to the clients reference model. Each client uses this score to select a tailored subset of updates and performs aggregation with a regularization term that further stabilizes the training. Our empirical evaluation across five datasets shows that the proposed approach consistently outperforms both, centralized baselines and existing P2P methods in terms of client-level performance, particularly under adversarial and heterogeneous conditions.


翻译:联邦学习(FL)通过将数据保留在本地,实现了跨分布式客户端的协同模型训练,同时保障数据隐私。传统FL方法依赖集中式的星型拓扑结构,即由中央服务器聚合来自客户端的模型更新。然而,这种架构存在若干局限性,包括单点故障、个性化能力有限、对分布偏移的鲁棒性较差以及对故障客户端脆弱等问题。此外,集中式FL中的更新选择通常依赖于低层参数差异,当客户端数据非独立同分布时,这种方法可能不可靠,且难以为客户端提供有效控制。本文提出一种去中心化的点对点(P2P)FL框架。该框架利用P2P拓扑的灵活性,使每个客户端能够识别并聚合一组个性化的、可信且有益的更新。该框架被命名为“通过共识与正则化在异构训练环境中实现局部推理引导聚合的增强框架”(LIGHTYEAR)。我们方法的核心是基于本地验证集计算的共识分数,该分数在函数空间中量化了传入更新与客户端参考模型之间的语义对齐程度。每个客户端利用该分数选择定制化的更新子集,并通过引入正则化项进行聚合,以进一步稳定训练。我们在五个数据集上的实证评估表明,所提方法在客户端层面性能上持续优于集中式基线方法与现有P2P方法,尤其在对抗性和异构条件下表现更为突出。

0
下载
关闭预览

相关内容

论文浅尝 | GEOM-GCN: Geometric Graph Convolutional Networks
开放知识图谱
14+阅读 · 2020年4月8日
CosFace: Large Margin Cosine Loss for Deep Face Recognition论文笔记
统计学习与视觉计算组
44+阅读 · 2018年4月25日
国家自然科学基金
17+阅读 · 2017年12月31日
国家自然科学基金
17+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2014年12月31日
VIP会员
相关基金
国家自然科学基金
17+阅读 · 2017年12月31日
国家自然科学基金
17+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2014年12月31日
Top
微信扫码咨询专知VIP会员