Federated Learning (FL) enables collaborative training across multiple clients while preserving data privacy, yet it struggles with data heterogeneity, where clients' data are not distributed independently and identically (non-IID). This causes local drift, hindering global model convergence. To address this, we introduce Federated Learning with Feedback Alignment (FLFA), a novel framework that integrates feedback alignment into FL. FLFA uses the global model's weights as a shared feedback matrix during local training's backward pass, aligning local updates with the global model efficiently. This approach mitigates local drift with minimal additional computational cost and no extra communication overhead. Our theoretical analysis supports FLFA's design by showing how it alleviates local drift and demonstrates robust convergence for both local and global models. Empirical evaluations, including accuracy comparisons and measurements of local drift, further illustrate that FLFA can enhance other FL methods demonstrating its effectiveness.


翻译:联邦学习(FL)能够在保护数据隐私的前提下实现多个客户端的协同训练,然而其面临数据异构性的挑战,即客户端数据并非独立同分布(非IID)。这会导致局部漂移,阻碍全局模型的收敛。为解决此问题,我们提出了基于反馈对齐的联邦学习(FLFA),这是一种将反馈对齐机制融入联邦学习的新型框架。FLFA在本地训练的反向传播过程中,使用全局模型的权重作为共享反馈矩阵,从而高效地将本地更新与全局模型对齐。该方法以最小的额外计算成本且无需额外通信开销的方式缓解局部漂移。我们的理论分析通过阐明FLFA如何减轻局部漂移,并证明其局部与全局模型均具有鲁棒收敛性,从而支持了该框架的设计。实证评估包括准确率比较和局部漂移测量,进一步表明FLFA能够增强其他联邦学习方法,验证了其有效性。

0
下载
关闭预览

相关内容

【WWW2025】基于不确定性的图结构学习
专知会员服务
17+阅读 · 2月20日
专知会员服务
35+阅读 · 2021年9月18日
专知会员服务
41+阅读 · 2021年6月19日
【NeurIPS2019】图变换网络:Graph Transformer Network
国家自然科学基金
8+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
4+阅读 · 2014年12月31日
VIP会员
相关VIP内容
【WWW2025】基于不确定性的图结构学习
专知会员服务
17+阅读 · 2月20日
专知会员服务
35+阅读 · 2021年9月18日
专知会员服务
41+阅读 · 2021年6月19日
相关基金
国家自然科学基金
8+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
4+阅读 · 2014年12月31日
Top
微信扫码咨询专知VIP会员