Training deep learning recommendation models (DLRMs) on edge workers brings several benefits, particularly in terms of data privacy protection, low latency and personalization. However, due to the huge size of embedding tables, typical DLRM training frameworks adopt one or more parameter servers to maintain global embedding tables, while leveraging the edge workers cache part of them. This incurs significant transmission cost for embedding transmissions between workers and parameter servers, which can dominate the training cycle. In this paper, we investigate how to dispatch input embedding samples to appropriate edge workers to minimize the total embedding transmission cost when facing edge-specific challenges such as heterogeneous networks and limited resources. We develop ESD, a novel mechanism that optimizes the dispatch of input embedding samples to edge workers based on expected embedding transmission cost. We propose HybridDis as the dispatch decision method within ESD, which combines a resource-intensive optimal algorithm and a heuristic algorithm to balance decision quality and resource consumption. We implement a prototype of ESD and compare it with state-of-the-art mechanisms on real-world workloads. Extensive experimental results show that ESD reduces the embedding transmission cost by up to 36.76% and achieves up to 1.74 times speedup in end-to-end DLRM training.


翻译:在边缘工作者上训练深度学习推荐模型具有多重优势,尤其在数据隐私保护、低延迟和个性化方面。然而,由于嵌入表规模庞大,典型的DLRM训练框架采用一个或多个参数服务器维护全局嵌入表,同时利用边缘工作者缓存部分嵌入。这导致工作者与参数服务器之间的嵌入传输产生显著通信开销,并可能主导整个训练周期。本文研究在面对异构网络和资源受限等边缘特有挑战时,如何将输入嵌入样本调度至合适的边缘工作者以最小化总嵌入传输开销。我们提出了ESD这一新颖机制,基于预期嵌入传输成本优化输入嵌入样本至边缘工作者的调度。我们在ESD中设计了HybridDis作为调度决策方法,该方法结合了资源密集型的优化算法与启发式算法,以平衡决策质量与资源消耗。我们实现了ESD的原型系统,并在真实负载中与前沿机制进行比较。大量实验结果表明,ESD最高可降低36.76%的嵌入传输开销,并在端到端DLRM训练中实现最高1.74倍的加速。

0
下载
关闭预览

相关内容

【NeurIPS2023】半监督端到端对比学习用于时间序列分类
专知会员服务
36+阅读 · 2023年10月17日
【ICML2020】持续终身学习的神经主题建模
专知会员服务
40+阅读 · 2020年6月22日
国家自然科学基金
0+阅读 · 2017年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
Arxiv
0+阅读 · 2025年12月31日
VIP会员
相关基金
国家自然科学基金
0+阅读 · 2017年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
Top
微信扫码咨询专知VIP会员