We consider online convex optimization (OCO) over a heterogeneous network with communication delay, where multiple workers together with a master execute a sequence of decisions to minimize the accumulation of time-varying global costs. The local data may not be independent or identically distributed, and the global cost functions may not be locally separable. Due to communication delay, neither the master nor the workers have in-time information about the current global cost function. We propose a new algorithm, termed Hierarchical OCO (HiOCO), which takes full advantage of the network heterogeneity in information timeliness and computation capacity to enable multi-step gradient descent at both the workers and the master. We analyze the impacts of the unique hierarchical architecture, multi-slot delay, and gradient estimation error to derive upper bounds on the dynamic regret of HiOCO, which measures the gap of costs between HiOCO and an offline globally optimal performance benchmark.


翻译:我们认为,在通信延迟的情况下,在线连接优化(OCO)是一个多式网络,多工人与一位主子一起执行一系列决定,以尽量减少时间变化的全球成本累积。当地数据可能不是独立或完全分布的,全球成本功能可能无法在本地分离。由于通信延迟,船长和工人都没有关于当前全球成本功能的实时信息。我们提出了一个新的算法,称为Hiorarchical OCO(HiOCO),它充分利用了网络在信息及时性和计算能力方面的差异性,使工人和主子都能够多步梯度梯度下降。我们分析了独特的等级结构、多行拖拉和梯度估计错误的影响,以获得HiOCO的动态遗憾的上限,后者衡量HiOCO与离线全球最佳绩效基准之间的成本差距。

0
下载
关闭预览

相关内容

专知会员服务
50+阅读 · 2020年12月14日
专知会员服务
42+阅读 · 2020年7月29日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
OpenAI丨深度强化学习关键论文列表
中国人工智能学会
17+阅读 · 2018年11月10日
【OpenAI】深度强化学习关键论文列表
专知
11+阅读 · 2018年11月10日
Hierarchical Imitation - Reinforcement Learning
CreateAMind
19+阅读 · 2018年5月25日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
【推荐】卷积神经网络类间不平衡问题系统研究
机器学习研究会
6+阅读 · 2017年10月18日
【学习】Hierarchical Softmax
机器学习研究会
4+阅读 · 2017年8月6日
Arxiv
0+阅读 · 2021年9月10日
Arxiv
6+阅读 · 2020年10月8日
Meta-Learning with Latent Embedding Optimization
Arxiv
6+阅读 · 2018年7月16日
VIP会员
相关资讯
Top
微信扫码咨询专知VIP会员