Near-Data-Processing (NDP) architectures present a promising way to alleviate data movement costs and can provide significant performance and energy benefits to parallel applications. Typically, NDP architectures support several NDP units, each including multiple simple cores placed close to memory. To fully leverage the benefits of NDP and achieve high performance for parallel workloads, efficient synchronization among the NDP cores of a system is necessary. However, supporting synchronization in many NDP systems is challenging because they lack shared caches and hardware cache coherence support, which are commonly used for synchronization in multicore systems, and communication across different NDP units can be expensive. This paper comprehensively examines the synchronization problem in NDP systems, and proposes SynCron, an end-to-end synchronization solution for NDP systems. SynCron adds low-cost hardware support near memory for synchronization acceleration, and avoids the need for hardware cache coherence support. SynCron has three components: 1) a specialized cache memory structure to avoid memory accesses for synchronization and minimize latency overheads, 2) a hierarchical message-passing communication protocol to minimize expensive communication across NDP units of the system, and 3) a hardware-only overflow management scheme to avoid performance degradation when hardware resources for synchronization tracking are exceeded. We evaluate SynCron using a variety of parallel workloads, covering various contention scenarios. SynCron improves performance by 1.27$\times$ on average (up to 1.78$\times$) under high-contention scenarios, and by 1.35$\times$ on average (up to 2.29$\times$) under low-contention real applications, compared to state-of-the-art approaches. SynCron reduces system energy consumption by 2.08$\times$ on average (up to 4.25$\times$).


翻译:近数据处理(NDP)架构是减缓数据流动成本的有希望的方法,可以为平行应用提供显著的绩效和能源效益。一般而言,NDP架构支持几个NDP单位,每个单位包括接近记忆的多个简单核心。为了充分利用NDP的效益,实现同步工作量的高度性能,一个系统NDP核心之间的高效同步是必要的。然而,支持许多NDP系统同步化是一个挑战,因为它们缺乏共同的缓存和硬件美元缓存一致性支持,而多核心系统通常使用这些缓存和硬件美元支持,而不同的NDP单位之间的通信费用可能非常昂贵。 本文全面审查了NDP系统中的同步问题,并提出了SynCron,这是NDP系统一个端到端同步化的解决方案。 SynCron将低成本的硬件支持用于同步加速,并避免硬件缓存支持一致性。 SynC有三个组成部分:1个专门的缓存结构,以避免记忆访问同步和最小值管理,2级信息传输协议可以降低整个NDP系统单位的昂贵通信费用。 与NDP系统相比,SyC的同步同步化方法,在SylC运行时,通过Sy-ral-minal-modrodemodal-modal-modal-modal 计划下,通过Sy-modal-modal-modal-modal-modal-modal-modal-modal-modalment sal-modal-de sal-de sal-modalment supal-de supal-de sal-modalment supalmentalment salment smadess sal 计划,在1 vialment sal-de salment salment salment sal vial-s sal sal-s sal sal sal sal ress ress ress ress ress ress vial-s ress commal vial-commal-s ress ress ress ress vial-comm sal vial ress ial-s ipsmal-s ial-tal-s ial-s ial-tal-s

0
下载
关闭预览

相关内容

《DeepGCNs: Making GCNs Go as Deep as CNNs》
专知会员服务
30+阅读 · 2019年10月17日
开源书:PyTorch深度学习起步
专知会员服务
50+阅读 · 2019年10月11日
[综述]深度学习下的场景文本检测与识别
专知会员服务
77+阅读 · 2019年10月10日
人工智能 | ACCV 2020等国际会议信息5条
Call4Papers
6+阅读 · 2019年6月21日
已删除
将门创投
6+阅读 · 2019年1月2日
Arxiv
3+阅读 · 2019年6月5日
Accelerated Methods for Deep Reinforcement Learning
Arxiv
6+阅读 · 2019年1月10日
Neural Architecture Optimization
Arxiv
8+阅读 · 2018年9月5日
Arxiv
12+阅读 · 2018年9月5日
VIP会员
相关VIP内容
《DeepGCNs: Making GCNs Go as Deep as CNNs》
专知会员服务
30+阅读 · 2019年10月17日
开源书:PyTorch深度学习起步
专知会员服务
50+阅读 · 2019年10月11日
[综述]深度学习下的场景文本检测与识别
专知会员服务
77+阅读 · 2019年10月10日
相关资讯
人工智能 | ACCV 2020等国际会议信息5条
Call4Papers
6+阅读 · 2019年6月21日
已删除
将门创投
6+阅读 · 2019年1月2日
Top
微信扫码咨询专知VIP会员