Federated learning (FL) enables collaborative model training without exposing clients' private data, but its deployment is often constrained by the communication cost of transmitting gradients between clients and the central server, especially under system heterogeneity where low-bandwidth clients bottleneck overall performance. Lossy compression of gradient data can mitigate this overhead, and error-bounded lossy compression (EBLC) is particularly appealing for its fine-grained utility-compression tradeoff. However, existing EBLC methods (e.g., SZ), originally designed for smooth scientific data with strong spatial locality, rely on generic predictors such as Lorenzo and interpolation for entropy reduction to improve compression ratio. Gradient tensors, in contrast, exhibit low smoothness and weak spatial correlation, rendering these predictors ineffective and leading to poor compression ratios. To address this limitation, we propose an EBLC framework tailored for FL gradient data to achieve high compression ratios while preserving model accuracy. The core of it is an innovative prediction mechanism that exploits temporal correlations across FL training rounds and structural regularities within convolutional kernels to reduce residual entropy. The predictor is compatible with standard quantizers and entropy coders and comprises (1) a cross-round magnitude predictor based on a normalized exponential moving average, and (2) a sign predictor that leverages gradient oscillation and kernel-level sign consistency. Experiments show that this new EBLC yields up to 1.53x higher compression ratios than SZ3 with lower accuracy loss. Integrated into a real-world FL framework, APPFL, it reduces end-to-end communication time by 76.1%-96.2% under various constrained-bandwidth scenarios, demonstrating strong scalability for real-world FL deployments.


翻译:联邦学习(FL)能够在无需暴露客户端私有数据的情况下实现协同模型训练,但其部署常受限于客户端与中央服务器间传输梯度的通信开销,尤其是在系统异构性导致低带宽客户端成为整体性能瓶颈的场景下。梯度数据的有损压缩可缓解此开销,而有损压缩(EBLC)因其精细化的效用-压缩权衡特性而备受关注。然而,现有EBLC方法(如SZ)最初为具有强空间局部性的平滑科学数据设计,依赖通用预测器(如洛伦佐预测和插值)进行熵缩减以提升压缩比。相比之下,梯度张量表现出低平滑性和弱空间相关性,导致这些预测器失效并造成压缩比低下。为克服此局限,本文提出一种专为FL梯度数据定制的EBLC框架,在保持模型精度的同时实现高压缩比。其核心是一种创新的预测机制,利用FL训练轮次间的时序相关性和卷积核内的结构规律性来降低残差熵。该预测器兼容标准量化器和熵编码器,包含:(1)基于归一化指数移动平均的跨轮幅值预测器;(2)利用梯度振荡和核级符号一致性的符号预测器。实验表明,相较于SZ3,该新型EBLC在精度损失更低的条件下可实现最高1.53倍的压缩比提升。将其集成至真实FL框架APPFL后,在不同受限带宽场景下端到端通信时间减少了76.1%-96.2%,证明了其对实际FL部署的强可扩展性。

0
下载
关闭预览

相关内容

梯度的本意是一个向量(矢量),表示某一函数在该点处的方向导数沿着该方向取得最大值,即函数在该点处沿着该方向(此梯度的方向)变化最快,变化率最大(为该梯度的模)。
国家自然科学基金
0+阅读 · 2017年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
VIP会员
相关基金
国家自然科学基金
0+阅读 · 2017年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
Top
微信扫码咨询专知VIP会员