「移动边缘网络中联邦学习效率优化」最新2022研究综述

2022 年 7 月 9 日 专知


联邦学习(federated learning)将模型训练任务部署在移动边缘设备,参与者只需将训练后的本地模型发送到服务器参与全局聚合而无须发送原始数据,提高了数据隐私性.然而, 解决效率问题是联邦学习落地的关键.影响效率的主要因素包括设备与服务器之间的通信消耗、模型收敛速率以及移动边 缘网络中存在的安全与隐私风险.在充分调研后, 首先将联邦学习的效率优化归纳为通信、训练与安全隐私保护3类.具体来说, 从边缘协调与模型压缩的角度讨论分析了通信优化方案;从设备选择、资源协 调、聚合控制与数据优化4个方面讨论分析了训练优化方案;从安全与隐私的角度讨论分析了联邦学习 的保护机制.其次,通过对比相关技术的创新点与贡献,总结了现有方案的优点与不足,探讨了联邦学习 所面临的新挑战.最后,基于边缘计算的思想提出了边缘化的联邦学习解决方案,在数据优化、自适应学 习、激励机制和隐私保护等方面给出了创新理念与未来展望.


https://crad.ict.ac.cn/CN/10.7544/issn1000-1239.20210119


近年来,深度学习(deeplearning,DL)[1]的发 展为人工智能技术的进步创造了动力.随着物联网 技术的发展,移动设备都具备强大的芯片、传感器以 及计算能力,能够在处理高级任务的同时,收集和产 生更丰富的数据[2].这些数据为深度学习的研究提 供了有利的基础条件,是深度学习不可或缺的部分. 传统以云为中心的深度学习,需要先收集移动 设备的数据,包括物联网设备和智能手机收集的数 据,例如照片、视频和位置等信息[3G5],并全部发送到 基于云的服务器或数据中心进行处理与训练.然而, 这种方法存在2个问题: 

1) 网络负担.在万物互联的时代,移动设备每 分每秒都产生数以亿计的数据[6],这些数据全部上 传到云服务器会占用大量的网络带宽.同时,以云为 中心的学习方式传输延迟高,不能及时进行数据交 互,给网络带来不必要的负担. 

2)数据 隐 私[7].数 据 所 有 者 对 隐 私 越 来 越 注 重,用户往往不愿共享自己的个人数据.许多国家和 组织也制定了相关隐私政策,例如欧盟委员会制定 的“GeneralDataProtectionRegulation”(«通 用 数 据保护条例»)[8].因此,利用一些边缘设备的计算和 存储能力,把计算推向边缘[9]被提出作为一种解决 方案.


因此, 联邦学习(federatedlearning,FL)[10]应 运而生,目的在于保护大数据环境下模型学习中涉 及的用户数据隐私.在联邦学习训练过程中,只需要 将所有移动设备在其私有数据上训练的本地模型上 传到云服务器中进行聚合,不涉及数据本身,很大程 度上提高了用户数据的隐私性.同时,边缘计算的提 出是为了缓解云中心的计算压力,目的是把云服务 中心的计算任务卸载到边缘[11],这恰好与联邦学习 的计算模式相适应,为联邦学习创造了有利条件.在 移动设备上训练模型,除了保证数据不离开本地,还 能让计算更加靠近数据源以节省通信成本.


然而,无线传感网络[12G13]等边缘环境复杂、设备 能力的差异性、数据质量等因素,使得如何在边缘网 络高效率地执行联邦学习是当前面临的关键问题. 一方面,一些实时性强的应用需要及时得到反馈,例 如车联网服务[14]等;另一方面,在物联网快速发展 的时代,爆发式增长的数据需要高效的处理机制才 能发挥其作用.因此,对联邦学习效率的研究是非常 必要的. 目前,联邦学习的热度呈持续增长的趋势.


本文首先对联邦学习效率优化方案进行了广泛 调研,阐述了联邦学习的技术背景以及深度学习等 基础知识,并说明了边缘计算与联邦学习的基本原 理以及二者之间的相互作用与影响.其次,分析了联 邦学习中存在的效率优化问题,根据影响效率的不 同因素,将联邦学习效率优化归纳为通信优化、训练 优化以及从安全与隐私角度考虑的效率优化.再次, 列举并对比分析了目前的研究方案,揭示了现有方 案存在的不足.联邦学习的研究还处于正在发展的 阶段,现有技术还不够完善.最后,探讨了联邦学习 面临的新挑战,本文以边缘计算作为扩展,提出了基 于边缘学习的联邦学习方案,并在数据优化、自适应 学习、激励机制和前沿技术等方面提出了创新性的 理念与思想,为联邦学习未来的研究提供了新的解 决思路.


1 联邦学习背景概述 


通过联邦学习在国内外的研究现状,可以看出 其重要性与研究价值.联邦学习的提出和实现与边 缘计算和深度学习息息相关.边缘计算为联邦学习 的本地训练创造了条件,深度学习为联邦学习提供了理论依据和核心技术.本节首先介绍深度学习和边缘计算等背景知识,然后阐述传统数据隐私保护 技术及其不足,从而引出联邦学习的概念、架构与分 类,突出联邦学习的特点与优势,对比了联邦学习与 传统分布式学习的区别,并总结了现有的联邦学习平台的特点.


基于数据拥有者对于隐私的高需求,在联邦学习中,服务器不需要用户共享个人的隐私数据,在本 地设备上用个人数据训练共享模型即可.联邦学习 的体系结构以及训练过程如图7所示.其中参与联 邦学习的设备为数据拥有者,每个设备都持有私有 数据集,每个设备利用这些数据训练本地模型.所有 训练好的本地模型参数发送到服务器中聚合,并更 新全局模型.然后服务器再把更新后的全局模型作 为新一轮的共享模型发送到参与设备迭代训练,直 到训练后的全局模型达到要求.


通常来说,联邦学习由多个参与者和一个服务 器组成,参与者用来分布式地训练共享模型,服务器 用来聚合这些本地模型并给参与者分发任务.联邦 学习的训练过程分为3步: 

1) 任务初始化.在训练开始之前,服务器首先 要确定训练的任务和目标,并选择参与联邦学习的 设备,然后把共享模型发送给已选择的设备. 

2) 本地训练与共享.每个设备利用私有数据训 练本地模型.训练的目标就是找到最佳的本地模型. 设备训练完之后把模型参数上传到服务器,进行下 一步操作. 

3) 全局聚合与更新.服务器收集到来自所有参 与设备的本地模型后,进行模型参数聚合.典型的聚 合操作是平均算法 FedAvg [31],联邦学习服务器通 过平均本地模型参数得到下一轮的共享全局模型, 目标是找到最佳的全局模型. 这3个步骤将会依次迭代进行,当全局模型收 敛或者达到一定的准确率时结束训练.


如果要对用户的数据建立学习模型,需要其数 据的特征,也必须有标签数据,即期望得到的答案. 比如,在图像识别领域,标签是被识别的用户的身份 (或实体的类别);在车联网领域,标签是与车辆用户 相关的信息等.用户特征加标签构成了完整的训练 数据.在联邦学习的应用场景中,各个数据集的用户 不完全相同,或用户特征不完全相同.因此,根据数 据的不同特点,将联邦学习分为3类:横向联邦学 习、纵向联邦学习和联邦迁移学习[32].我们以2个 数据集为例, 分别介绍3类联邦学习的区别. 

1)  横向联邦学习.如图8(a)所示,当2个数据 集的用户重叠部分很少,但是用户特征重叠部分比 较大时,把数据集横向切分,取出2个数据集中特征相同但来自不同用户的数据进行训练,这种场景下 的联邦学习属于横向联邦学习. 

2) 纵向联邦学习.如图8(b)所示,当2个数据 集的用户重叠部分很多,但用户特征重叠部分比较 少时,通过用户的不同数据特征联合训练一个更综合 的模型,这种场景下的联邦学习属于纵向联邦学习. 

3) 联邦迁移学习.如图8(c)所示,联邦迁移学 习是纵向联邦学习的一种特例.当2个数据集的用 户重叠部分少,用户特征重叠部分也较少,且有的数 据还存在标签缺失时,此时利用迁移学习来解决数 据规模小的问题,这种场景下的联邦学习就是联邦 迁移学习.



这3种类型的联邦学习的共同点都在于保护用 户数据的隐私性,区别主要在于用户和数据的重叠 性.联邦学习的提出是基于不同用户、数据特征重叠 性高的情况,并且目前大部分的研究都是基于横向联邦学习,纵向联邦学习和联邦迁移学习的研究工 作暂时比较少.由于不同类型的联邦学习训练与优 化机理都相互独立,而在移动边缘网络中部署实现 联邦学习旨在利用更多不同的用户和设备来训练模 型.因此, 本文主要关注的是横向联邦学习的效率优 化,本文所提及的联邦学习均为横向联邦学习.


联邦学习平台随着国内外学者的研究,许多适用于联邦学习 的开源平台或项目已经研发出来,表2总结了9种 目前主流的平台.


1) TFF(TensorFlowfederated).TFF [34]是由 谷歌开发的一个基于 TensorFlow 的框架,用于分 布式机器学习和其他分布式计算.TFF为2层结构, 其 中 联 邦 学 习 层 是 一 个 高 级 接 口,允 许 现 有 的 TensorFlow 模型支持并实现联邦学习,用户不必亲 自设计联邦学习算法.另一层为联邦核心层,结合了 TensorFlow 和通信运营商,允许用户自己设计联邦 学习算法. 

2) 工业级开源框架 FATE(federatedAItechG nologyenabler).FATE [35]是微众银行 AI团队推出 的工业级别联邦学习框架,可以在保护数据安全和 数据隐私的前提下进行人工智能协作.作为一个工 业级的联邦学习框架,FATE 项目提供了许多现成 的联邦学习算法以及多种加密机制,可以支持不同 种类的安全计算. 

3) PySyft.PySyft [36]是一个基 于 PyTorch 的 框架,可以在不可信的环境中执行加密、保护隐私的深度学习.为了模拟联邦学习,参与者被创建为虚拟 工作者,将数据分割并分配给虚拟工作者,并指定数 据所有者和存储位置,然后从虚拟工作者中获取模 型后以进行全局聚合. 

4) PaddleFL.PaddleFL [37]主 要 是 面 向 深 度 学 习进行设计的,提供了众多在计算机视觉、自然语言 处理、推荐算法等领域的联邦学习策略及应用.同时 PaddleFL 还将提供横向与纵向传统机器学习方法 的应用策略,利用开源的 FedAvg算法和基于差分 隐私的随机梯度下降(stochasticgradientdescent, SGD)算法来实现保护隐私的分布式学习,以对分散 式的数据集进行模型训练.结合本身在大规模分布 式训练的弹性调度能力,PaddleFL在联邦学习领域 有非常多的应用场景. 

5) OpenI纵横.OpenI纵横[38]是由微众银行、 鹏城实验室、香港人工智能与机器人协会以及星云 Clustar等共同开发并应用到 OpenI启智平台的孤 岛数据联邦解决方案.该方案主要关注在满足用户 数据安全、法律合规条件下的多方数据使用和联邦 建模的问题.OpenI纵横提供了丰富的一站式联邦 建模算法组件,可以执行大多数联邦建模任务. 

6) “蜂巢”联邦学习平台.该平台由平安科技自 主研发,是一个完整的联邦学习智能系统,包括4个 功能层级:“蜂巢”数据层、“蜂巢”联邦层、“蜂巢”算 法层以及“蜂巢”优化层.依托平安集团在金融科技 业务经验的优势,在金融领域做了大量的定向优化 工作,例如风险控制和金融安全测试等. 

7) ClaraFL.ClaraFL [39]是一款由英伟达公司 开发的用于分布式协作联邦学习训练的应用程序, 主要应用于医疗领域,目的在于保护患者的隐私且 实现联邦训练.该应用程序面向边缘服务器并部署 这些分布式客户端系统,可以实现本地深度学习训 练,并协同训练出更为实用的全局模型. 

8) FederatedGaveragingGtutorials [40].该 项 目 是 在 TensorFlow 框架上实现联邦平均算法的一组开 源教程,主要的目标是把隐私保护相关技术应用在 分布式机器学习算法上.FederatedGaveragingGtutorials 使用 Keras深度学习框架作为基础,并提供本地、分 布式、联邦平均3种方法来训练 TensorFlow 模型. 

9) 华为联邦学习平台 NAIE(networkAIengine). NAIE [41]提供了一套自动化的联邦学习服务,实现 了一键式从创建联邦实例到管理边缘节点的平台服 务.用户只要下载一个客户端就可以轻松加入或退 出联邦学习,且平台对联邦学习的整个过程实现了 可视化的管理.华为 NAIE以横向联邦为基础,内置 了众多联邦学习能力,包括联邦汇聚、梯度分叉、多 方计算和压缩算法等能力.用户可以通过创建联邦 实例来发起众筹式训练,并能够查看训练状态,享受 共同训练的成果.华为 NAIE 联邦学习平台具有联 邦实例管理能力、边缘节点管理能力和运行联邦实 例能力,后续还将对纵向联邦学习提供支持.


2 联邦学习优化问题 


我们在调研中发现设备与服务器之间的通信问 题是影响联邦学习效率的主要因素.移动边缘网络 层与云服务器之间的距离较远,而联邦学习需要进 行多轮训练,这带来了较多的通信时间与成本.此 外,在联邦学习过程的3个步骤中,每个步骤都影响 联邦学习的训练效率.例如在初始化中,服务器需要 选择性能强大的移动设备参加训练,从而加快本地 训练与上传的速度;在聚合步骤中,需要控制聚合的 频率或内容来提高模型聚合的收敛效果.因此,本节 将从通信、训练以及由安全与隐私引起的效率优化 问题等方面展开描述联邦学习目前存在的优化问题.


2.1 通 信传统联邦学习为2层结构,移动设备利用本地 数据训练得到本地模型,通过广域网将模型传送到 云端服务器.然而参与联邦学习的设备数量成千上 万,甚至更多,设备与服务器之间的大量通信必然会 占用过多的带宽.同时,设备的信号与能量状态也会 影响与服务器的通信,导致网络延迟,消耗更高的通 信成本.因此为了提高训练的实时性,联邦学习需要 解决通信问题.

2.2  训 练 

联邦学习的本地训练与常规深度学习训练过程 类似,而联邦学习中存在的异构计算资源、模型聚合 以及数据质量是影响其训练效率的关键.


2.3 安全与隐私 

与集中式学习相比,联邦学习的环境不可控,来 自恶意设备的攻击成为主要的隐患.研究表明,恶意 的攻击者仍可以根据其他参与者的共享模型来推断 用户相关的隐私信息(例如生成式对抗网络攻击、模 型反演攻击等),并且精度高达90% [56G57].这种攻击 也可以成功地从各种训练模型中提取模型信息[58]. 此外,联邦学习中也存在许多安全威胁,例如中毒攻 击,这也会导致联邦学习的训练效率瓶颈.联邦学习 中的中毒攻击可分为2类: 

1) 数据中毒.在联邦学习中,设备使用本地数 据进行模型训练,并将训练后的模型发送到服务器 以进行进一步处理.在这种情况下,服务器难以确定 每个设备的本地数据是否真实.因此,恶意参与者可 以通过创建脏标签数据来训练模型,以产生错误的 参数,降低全局模型的准确性.文献[59]研究了联邦 学习中的基于标签反转的数据中毒攻击,攻击者使 用与其他参与者相同的损失函数和超参数训练的本 地模型,利用标签反转污染数据集.实验表明攻击成 功率、效率随中毒样本和攻击者数量呈线性增加. 

2) 模型参数中毒.另一种比数据中毒更为有效 的攻击是模型中毒攻击[60].对于模型中毒攻击,攻 击者可以直接修改模型的参数,该模型直接发送到 服务器以进行聚合.相比数据中毒,即使只有一个模 型中毒攻击者,也能迅速降低全局模型的精度. 安全与隐私问题除了破坏模型的训练精度,更 严重的是导致用户不再信任联邦学习服务器,用户 将不愿意参与共同训练,而过低的设备参与率导致 全局模型的性能低下,甚至造成模型收敛的瓶颈.为 了提高模型训练的效率与精度,需要结合相关隐私 与安全机制,解决针对联邦学习环境的安全与隐私 问题,提高模型的稳定性与用户的参与度,为高效的 联邦学习提供可靠环境。


3 现有优化研究方案


现有优化研究方案 第2节讨论了当前联邦学习存在的优化问题, 本节将详细介绍与分析目前针对联邦学习效率优化 的相关研究与技术方案.通信效率的研究主要为解 决在基于云或基于边缘的环境中实现联邦学习带来 的通信时间与负载的问题.而训练优化是对联邦学 习训练的每个步骤进行优化,包括参与设备选择与协调、模型聚合控制.此外,还针对数据质量问题,总 结了联邦学习收敛优化等相关的研究方案.最后列 举了通过保护联邦学习安全与隐私从而提高模型性 能的方案.



4 挑战及未来研究方向


联邦学习由于其分布式的特性,以及移动边缘 网络环境的复杂性,使联邦学习系统的稳定性不如 传统分布式学习.用户的不可控性造成许多未知因 素,这给联邦学习的效率优化带来了极大的挑战.目 前,联邦学习的研究仍处于初期,没有一套完善的方 案解决稳定性、效率优化问题,训练过程容易受到影 响.通过对移动边缘网络中联邦学习效率优化研究 现状的深入分析,我们认为未来联邦学习的优化研 究可以重点从7个方面展开:  基于更多边缘计算的联邦学习;针对联邦学习的数据清洗;自适应联邦学习;激励机制与服务定价;资源友好的安全与隐私保护;联邦学习与前沿技术结合;联邦学习与智能场景结合。


专知便捷查看

便捷下载,请关注专知公众号(点击上方蓝色专知关注)

  • 后台回复“OFLE” 就可以获取「移动边缘网络中联邦学习效率优化」最新2022研究综述》专知下载链接

                       
专知,专业可信的人工智能知识分发 ,让认知协作更快更好!欢迎注册登录专知www.zhuanzhi.ai,获取100000+AI(AI与军事、医药、公安等)主题干货知识资料!
欢迎微信扫一扫加入专知人工智能知识星球群,获取最新AI专业干货知识教程资料和与专家交流咨询
点击“ 阅读原文 ”,了解使用 专知 ,查看获取100000+AI主题知识资料
登录查看更多
5

相关内容

联邦学习(Federated Learning)是一种新兴的人工智能基础技术,在 2016 年由谷歌最先提出,原本用于解决安卓手机终端用户在本地更新模型的问题,其设计目标是在保障大数据交换时的信息安全、保护终端数据和个人数据隐私、保证合法合规的前提下,在多参与方或多计算结点之间开展高效率的机器学习。其中,联邦学习可使用的机器学习算法不局限于神经网络,还包括随机森林等重要算法。联邦学习有望成为下一代人工智能协同算法和协作网络的基础。
联邦学习攻防研究综述
专知会员服务
37+阅读 · 2022年7月22日
移动边缘网络中联邦学习效率优化综述
专知会员服务
47+阅读 · 2022年7月9日
「基于联邦学习的推荐系统」最新2022研究综述
专知会员服务
74+阅读 · 2022年5月21日
「联邦学习隐私保护 」最新2022研究综述
专知会员服务
116+阅读 · 2022年4月1日
亚马逊最新《联邦学习》简明综述
专知会员服务
84+阅读 · 2022年2月6日
联邦学习研究综述
专知会员服务
147+阅读 · 2021年12月25日
专知会员服务
91+阅读 · 2021年7月23日
专知会员服务
112+阅读 · 2020年11月16日
专知会员服务
124+阅读 · 2020年8月7日
联邦学习攻防研究综述
专知
2+阅读 · 2022年7月15日
「联邦学习隐私保护 」最新2022研究综述
专知
16+阅读 · 2022年4月1日
「深度神经网络 FPGA 」最新2022研究综述
专知
3+阅读 · 2022年3月26日
亚马逊最新《联邦学习》简明综述
专知
2+阅读 · 2022年2月6日
「深度学习模型鲁棒性」最新2022综述
专知
7+阅读 · 2022年1月23日
联邦学习研究综述
专知
11+阅读 · 2021年12月25日
模型攻击:鲁棒性联邦学习研究的最新进展
机器之心
34+阅读 · 2020年6月3日
联邦学习最新研究趋势!
AI科技评论
52+阅读 · 2020年3月12日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
1+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
9+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2010年12月31日
国家自然科学基金
1+阅读 · 2009年12月31日
Arxiv
19+阅读 · 2020年7月13日
Arxiv
12+阅读 · 2018年9月5日
Arxiv
22+阅读 · 2018年2月14日
VIP会员
相关VIP内容
联邦学习攻防研究综述
专知会员服务
37+阅读 · 2022年7月22日
移动边缘网络中联邦学习效率优化综述
专知会员服务
47+阅读 · 2022年7月9日
「基于联邦学习的推荐系统」最新2022研究综述
专知会员服务
74+阅读 · 2022年5月21日
「联邦学习隐私保护 」最新2022研究综述
专知会员服务
116+阅读 · 2022年4月1日
亚马逊最新《联邦学习》简明综述
专知会员服务
84+阅读 · 2022年2月6日
联邦学习研究综述
专知会员服务
147+阅读 · 2021年12月25日
专知会员服务
91+阅读 · 2021年7月23日
专知会员服务
112+阅读 · 2020年11月16日
专知会员服务
124+阅读 · 2020年8月7日
相关资讯
联邦学习攻防研究综述
专知
2+阅读 · 2022年7月15日
「联邦学习隐私保护 」最新2022研究综述
专知
16+阅读 · 2022年4月1日
「深度神经网络 FPGA 」最新2022研究综述
专知
3+阅读 · 2022年3月26日
亚马逊最新《联邦学习》简明综述
专知
2+阅读 · 2022年2月6日
「深度学习模型鲁棒性」最新2022综述
专知
7+阅读 · 2022年1月23日
联邦学习研究综述
专知
11+阅读 · 2021年12月25日
模型攻击:鲁棒性联邦学习研究的最新进展
机器之心
34+阅读 · 2020年6月3日
联邦学习最新研究趋势!
AI科技评论
52+阅读 · 2020年3月12日
相关基金
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
1+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
9+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2010年12月31日
国家自然科学基金
1+阅读 · 2009年12月31日
Top
微信扫码咨询专知VIP会员