Federated Learning (FL) has emerged as a privacy-preserving paradigm for training machine learning models across distributed edge devices in the Internet of Things (IoT). By keeping data local and coordinating model training through a central server, FL effectively addresses privacy concerns and reduces communication overhead. However, the limited computational power, memory, and bandwidth of IoT edge devices pose significant challenges to the efficiency and scalability of FL, especially when training deep neural networks. Various FL frameworks have been proposed to reduce computation and communication overheads through dropout or layer freezing. However, these approaches often sacrifice accuracy or neglect memory constraints. To this end, in this work, we introduce Federated Learning with Ordered Layer Freezing (FedOLF). FedOLF consistently freezes layers in a predefined order before training, significantly mitigating computation and memory requirements. To further reduce communication and energy costs, we incorporate Tensor Operation Approximation (TOA), a lightweight alternative to conventional quantization that better preserves model accuracy. Experimental results demonstrate that over non-iid data, FedOLF achieves at least 0.3%, 6.4%, 5.81%, 4.4%, 6.27% and 1.29% higher accuracy than existing works respectively on EMNIST (with CNN), CIFAR-10 (with AlexNet), CIFAR-100 (with ResNet20 and ResNet44), and CINIC-10 (with ResNet20 and ResNet44), along with higher energy efficiency and lower memory footprint.


翻译:联邦学习作为一种隐私保护范式,已在物联网分布式边缘设备上的机器学习模型训练中得到广泛应用。通过将数据保留在本地并通过中央服务器协调模型训练,联邦学习有效解决了隐私问题并降低了通信开销。然而,物联网边缘设备有限的计算能力、内存和带宽对联邦学习的效率和可扩展性构成了重大挑战,尤其是在训练深度神经网络时。已有多种联邦学习框架通过丢弃或层冻结技术来降低计算和通信开销,但这些方法往往以牺牲精度为代价或忽略了内存限制。为此,本研究提出了基于有序层冻结的联邦学习方法。该方法在训练前按照预定顺序持续冻结网络层,显著降低了计算和内存需求。为进一步减少通信和能耗,我们引入了张量操作近似技术——这是一种轻量化的传统量化替代方案,能更好地保持模型精度。实验结果表明,在非独立同分布数据上,相较于现有方法,FedOLF在EMNIST数据集(使用CNN)、CIFAR-10数据集(使用AlexNet)、CIFAR-100数据集(使用ResNet20和ResNet44)以及CINIC-10数据集(使用ResNet20和ResNet44)上分别实现了至少0.3%、6.4%、5.81%、4.4%、6.27%和1.29%的精度提升,同时具有更高的能效和更低的内存占用。

0
下载
关闭预览

相关内容

联邦学习(Federated Learning)是一种新兴的人工智能基础技术,在 2016 年由谷歌最先提出,原本用于解决安卓手机终端用户在本地更新模型的问题,其设计目标是在保障大数据交换时的信息安全、保护终端数据和个人数据隐私、保证合法合规的前提下,在多参与方或多计算结点之间开展高效率的机器学习。其中,联邦学习可使用的机器学习算法不局限于神经网络,还包括随机森林等重要算法。联邦学习有望成为下一代人工智能协同算法和协作网络的基础。
国家自然科学基金
17+阅读 · 2017年12月31日
国家自然科学基金
17+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
VIP会员
相关基金
国家自然科学基金
17+阅读 · 2017年12月31日
国家自然科学基金
17+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
Top
微信扫码咨询专知VIP会员