To leverage massive distributed data and computation resources, machine learning in the network edge is considered to be a promising technique especially for large-scale model training. Federated learning (FL), as a paradigm of collaborative learning techniques, has obtained increasing research attention with the benefits of communication efficiency and improved data privacy. Due to the lossy communication channels and limited communication resources (e.g., bandwidth and power), it is of interest to investigate fast responding and accurate FL schemes over wireless systems. Hence, we investigate the problem of jointly optimized communication efficiency and resources for FL over wireless Internet of things (IoT) networks. To reduce complexity, we divide the overall optimization problem into two sub-problems, i.e., the client scheduling problem and the resource allocation problem. To reduce the communication costs for FL in wireless IoT networks, a new client scheduling policy is proposed by reusing stale local model parameters. To maximize successful information exchange over networks, a Lagrange multiplier method is first leveraged by decoupling variables including power variables, bandwidth variables and transmission indicators. Then a linear-search based power and bandwidth allocation method is developed. Given appropriate hyper-parameters, we show that the proposed communication-efficient federated learning (CEFL) framework converges at a strong linear rate. Through extensive experiments, it is revealed that the proposed CEFL framework substantially boosts both the communication efficiency and learning performance of both training loss and test accuracy for FL over wireless IoT networks compared to a basic FL approach with uniform resource allocation.


翻译:为了利用大规模分布的数据和计算资源,网络边缘的机器学习被认为是一个很有希望的技术,特别是大规模模型培训。作为协作学习技术的范例,联邦学习(FL)已经获得越来越多的研究关注,并受益于通信效率和数据隐私的改善。由于通信渠道丢失,通信资源(例如带宽和电力)有限,因此有兴趣对无线系统进行快速反应和准确的FL计划进行调查。因此,我们调查了通过无线互联网(IoT)网络联合优化FL通信效率和资源的问题。为降低复杂性,我们将总体优化问题分为两个次级问题,即客户排期问题和资源配置问题。为了降低无线IoT网络中的FL通信成本,建议采用新的客户排期政策,重新使用平坦的本地模型参数。为了在网络上最大限度地实现成功的信息交流,首先通过分解变量,包括电力变量、带宽变量和传输指标,来优化FL的通信效率问题。然后,我们将基于线性研究的电力和带宽度分配问题分为两个子分级分配问题,即客户排时间问题和资源分配问题。为无线性IOT网络的升级化测试框架,我们提议通过适当的超高水平的FL学习,通过高水平测试框架,通过高压化学习,提出一个测试框架。我们提议的FLLFLLLLLFLL试验,通过适当的升级化的深度学习,通过适当的学习,从深级化的进度式学习进行广泛的学习。我们制式式学习。我们学习。

0
下载
关闭预览

相关内容

专知会员服务
44+阅读 · 2020年10月31日
【微众银行】联邦学习白皮书_v2.0,48页pdf,
专知会员服务
163+阅读 · 2020年4月26日
【课程推荐】 深度学习中的几何(Geometry of Deep Learning)
专知会员服务
54+阅读 · 2019年11月10日
Keras François Chollet 《Deep Learning with Python 》, 386页pdf
专知会员服务
143+阅读 · 2019年10月12日
强化学习最新教程,17页pdf
专知会员服务
167+阅读 · 2019年10月11日
【SIGGRAPH2019】TensorFlow 2.0深度学习计算机图形学应用
专知会员服务
39+阅读 · 2019年10月9日
Hierarchically Structured Meta-learning
CreateAMind
23+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
25+阅读 · 2019年5月18日
Call for Participation: Shared Tasks in NLPCC 2019
中国计算机学会
5+阅读 · 2019年3月22日
人工智能 | SCI期刊专刊/国际会议信息7条
Call4Papers
7+阅读 · 2019年3月12日
计算机 | ISMAR 2019等国际会议信息8条
Call4Papers
3+阅读 · 2019年3月5日
人工智能 | UAI 2019等国际会议信息4条
Call4Papers
6+阅读 · 2019年1月14日
人工智能 | SCI期刊专刊信息3条
Call4Papers
5+阅读 · 2019年1月10日
人工智能 | 国际会议信息10条
Call4Papers
5+阅读 · 2018年12月18日
已删除
将门创投
4+阅读 · 2018年7月31日
【今日新增】IEEE Trans.专刊截稿信息8条
Call4Papers
7+阅读 · 2017年6月29日
Arxiv
0+阅读 · 2021年12月15日
Arxiv
6+阅读 · 2021年4月30日
Advances and Open Problems in Federated Learning
Arxiv
17+阅读 · 2019年12月10日
VIP会员
相关资讯
Hierarchically Structured Meta-learning
CreateAMind
23+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
25+阅读 · 2019年5月18日
Call for Participation: Shared Tasks in NLPCC 2019
中国计算机学会
5+阅读 · 2019年3月22日
人工智能 | SCI期刊专刊/国际会议信息7条
Call4Papers
7+阅读 · 2019年3月12日
计算机 | ISMAR 2019等国际会议信息8条
Call4Papers
3+阅读 · 2019年3月5日
人工智能 | UAI 2019等国际会议信息4条
Call4Papers
6+阅读 · 2019年1月14日
人工智能 | SCI期刊专刊信息3条
Call4Papers
5+阅读 · 2019年1月10日
人工智能 | 国际会议信息10条
Call4Papers
5+阅读 · 2018年12月18日
已删除
将门创投
4+阅读 · 2018年7月31日
【今日新增】IEEE Trans.专刊截稿信息8条
Call4Papers
7+阅读 · 2017年6月29日
Top
微信扫码咨询专知VIP会员