Near-Data-Processing (NDP) architectures present a promising way to alleviate data movement costs and can provide significant performance and energy benefits to parallel applications. Typically, NDP architectures support several NDP units, each including multiple simple cores placed close to memory. To fully leverage the benefits of NDP and achieve high performance for parallel workloads, efficient synchronization among the NDP cores of a system is necessary. However, supporting synchronization in many NDP systems is challenging because they lack shared caches and hardware cache coherence support, which are commonly used for synchronization in multicore systems, and communication across different NDP units can be expensive. This paper comprehensively examines the synchronization problem in NDP systems, and proposes SynCron, an end-to-end synchronization solution for NDP systems. SynCron adds low-cost hardware support near memory for synchronization acceleration, and avoids the need for hardware cache coherence support. SynCron has three components: 1) a specialized cache memory structure to avoid memory accesses for synchronization and minimize latency overheads, 2) a hierarchical message-passing communication protocol to minimize expensive communication across NDP units of the system, and 3) a hardware-only overflow management scheme to avoid performance degradation when hardware resources for synchronization tracking are exceeded. We evaluate SynCron using a variety of parallel workloads, covering various contention scenarios. SynCron improves performance by 1.27$\times$ on average (up to 1.78$\times$) under high-contention scenarios, and by 1.35$\times$ on average (up to 2.29$\times$) under low-contention real applications, compared to state-of-the-art approaches. SynCron reduces system energy consumption by 2.08$\times$ on average (up to 4.25$\times$).


翻译:近数据处理(NDP)架构是减缓数据流动成本的有希望的方法,可以为平行应用提供显著的绩效和能源效益。一般而言,NDP架构支持几个NDP单位,每个单位包括接近记忆的多个简单核心。为了充分利用NDP的效益,实现同步工作量的高度性能,一个系统NDP核心之间的高效同步是必要的。然而,支持许多NDP系统同步化是一个挑战,因为它们缺乏共同的缓存和硬件美元缓存一致性支持,而多核心系统通常使用这些缓存和硬件美元支持,而不同的NDP单位之间的通信费用可能非常昂贵。 本文全面审查了NDP系统中的同步问题,并提出了SynCron,这是NDP系统一个端到端同步化的解决方案。 SynCron将低成本的硬件支持用于同步加速,并避免硬件缓存支持一致性。 SynC有三个组成部分:1个专门的缓存结构,以避免记忆访问同步和最小值管理,2级信息传输协议可以降低整个NDP系统单位的昂贵通信费用。 与NDP系统相比,SyC的同步同步化方法,在SylC运行时,通过Sy-ral-minal-modrodemodal-modal-modal-modal 计划下,通过Sy-modal-modal-modal-modal-modal-modal-modal-modal-modalment sal-modal-de sal-de sal-modalment supal-de supal-de sal-modalment supalmentalment salment smadess sal 计划,在1 vialment sal-de salment salment salment sal vial-s sal sal-s sal sal sal sal ress ress ress ress ress ress vial-s ress commal vial-commal-s ress ress ress ress vial-comm sal vial ress ial-s ipsmal-s ial-tal-s ial-s ial-tal-s

0
下载
关闭预览

相关内容

最新《计算机体系结构和系统的机器学习》综述论文
专知会员服务
51+阅读 · 2021年2月17日
Stabilizing Transformers for Reinforcement Learning
专知会员服务
57+阅读 · 2019年10月17日
深度神经网络模型压缩与加速综述
专知会员服务
127+阅读 · 2019年10月12日
Keras François Chollet 《Deep Learning with Python 》, 386页pdf
专知会员服务
145+阅读 · 2019年10月12日
[综述]深度学习下的场景文本检测与识别
专知会员服务
77+阅读 · 2019年10月10日
分布式并行架构Ray介绍
CreateAMind
9+阅读 · 2019年8月9日
计算机 | 国际会议信息5条
Call4Papers
3+阅读 · 2019年7月3日
Hierarchically Structured Meta-learning
CreateAMind
23+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
26+阅读 · 2019年5月18日
Deep Compression/Acceleration:模型压缩加速论文汇总
极市平台
14+阅读 · 2019年5月15日
人工智能 | UAI 2019等国际会议信息4条
Call4Papers
6+阅读 · 2019年1月14日
无监督元学习表示学习
CreateAMind
26+阅读 · 2019年1月4日
计算机类 | ISCC 2019等国际会议信息9条
Call4Papers
5+阅读 · 2018年12月25日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
16+阅读 · 2018年12月24日
Hierarchical Imitation - Reinforcement Learning
CreateAMind
19+阅读 · 2018年5月25日
Arxiv
0+阅读 · 2021年3月11日
Efficient and Effective $L_0$ Feature Selection
Arxiv
5+阅读 · 2018年8月7日
VIP会员
相关资讯
分布式并行架构Ray介绍
CreateAMind
9+阅读 · 2019年8月9日
计算机 | 国际会议信息5条
Call4Papers
3+阅读 · 2019年7月3日
Hierarchically Structured Meta-learning
CreateAMind
23+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
26+阅读 · 2019年5月18日
Deep Compression/Acceleration:模型压缩加速论文汇总
极市平台
14+阅读 · 2019年5月15日
人工智能 | UAI 2019等国际会议信息4条
Call4Papers
6+阅读 · 2019年1月14日
无监督元学习表示学习
CreateAMind
26+阅读 · 2019年1月4日
计算机类 | ISCC 2019等国际会议信息9条
Call4Papers
5+阅读 · 2018年12月25日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
16+阅读 · 2018年12月24日
Hierarchical Imitation - Reinforcement Learning
CreateAMind
19+阅读 · 2018年5月25日
Top
微信扫码咨询专知VIP会员