Decentralized Federated Learning (DFL) has emerged as a privacy-preserving machine learning paradigm that enables collaborative training among users without relying on a central server. However, its performance often degrades significantly due to limited connectivity and data heterogeneity. As we move toward the next generation of wireless networks, mobility is increasingly embedded in many real-world applications. The user mobility, either natural or induced, enables clients to act as relays or bridges, thus enhancing information flow in sparse networks; however, its impact on DFL has been largely overlooked despite its potential. In this work, we systematically investigate the role of mobility in improving DFL performance. We first establish the convergence of DFL in sparse networks under user mobility and theoretically demonstrate that even random movement of a fraction of users can significantly boost performance. Building upon this insight, we propose a DFL framework that utilizes mobile users with induced mobility patterns, allowing them to exploit the knowledge of data distribution to determine their trajectories to enhance information propagation through the network. Through extensive experiments, we empirically confirm our theoretical findings, validate the superiority of our approach over baselines, and provide a comprehensive analysis of how various network parameters influence DFL performance in mobile networks.


翻译:去中心化联邦学习(DFL)作为一种隐私保护的机器学习范式已经兴起,它使得用户能够在无需依赖中央服务器的情况下进行协同训练。然而,由于连接性有限和数据异质性,其性能常常显著下降。随着我们迈向下一代无线网络,移动性正日益嵌入许多现实世界的应用中。用户的移动性,无论是自然的还是诱导的,使得客户端能够充当中继或桥梁,从而增强稀疏网络中的信息流;然而,尽管其具有潜力,移动性对DFL的影响在很大程度上被忽视了。在本工作中,我们系统地研究了移动性在提升DFL性能中的作用。我们首先建立了稀疏网络中用户移动性下DFL的收敛性,并从理论上证明,即使一小部分用户的随机移动也能显著提升性能。基于这一洞见,我们提出了一个DFL框架,该框架利用具有诱导移动模式的移动用户,使他们能够利用数据分布的知识来确定其轨迹,以增强信息在网络中的传播。通过大量实验,我们实证验证了我们的理论发现,证实了我们的方法相对于基线的优越性,并全面分析了各种网络参数如何影响移动网络中的DFL性能。

0
下载
关闭预览

相关内容

以语音为中心的可信机器学习:隐私、安全和公平综述
专知会员服务
19+阅读 · 2022年12月20日
国家自然科学基金
17+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2015年12月31日
国家自然科学基金
46+阅读 · 2015年12月31日
国家自然科学基金
11+阅读 · 2013年12月31日
国家自然科学基金
16+阅读 · 2013年12月31日
VIP会员
相关基金
国家自然科学基金
17+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2015年12月31日
国家自然科学基金
46+阅读 · 2015年12月31日
国家自然科学基金
11+阅读 · 2013年12月31日
国家自然科学基金
16+阅读 · 2013年12月31日
Top
微信扫码咨询专知VIP会员