Traditionally, massively parallel applications are executed on distributed systems, where computing nodes are distant enough that the parallelization schemes must minimize communication and synchronization to achieve scalability. Mapping communication-intensive workloads to distributed systems requires complicated problem partitioning and dataset pre-processing. With the current AI-driven trend of having thousands of interconnected processors per chip, there is an opportunity to re-think these communication-bottlenecked workloads. This bottleneck often arises from data structure traversals, which cause irregular memory accesses and poor cache locality. Recent works have introduced task-based parallelization schemes to accelerate graph traversal and other sparse workloads. Data structure traversals are split into tasks and pipelined across processing units (PUs). Dalorex demonstrated the highest scalability (up to thousands of PUs on a single chip) by having the entire dataset on-chip, scattered across PUs, and executing the tasks at the PU where the data is local. However, it also raised questions on how to scale to larger datasets when all the memory is on chip, and at what cost. To address these challenges, we propose a scalable architecture composed of a grid of Data-Centric Reconfigurable Array (DCRA) chiplets. Package-time reconfiguration enables creating chip products that optimize for different target metrics, such as time-to-solution, energy, or cost, while software reconfigurations avoid network saturation when scaling to millions of PUs across many chip packages. We evaluate six applications and four datasets, with several configurations and memory technologies, to provide a detailed analysis of the performance, power, and cost of data-local execution at scale. Our parallelization of Breadth-First-Search with RMAT-26 across a million PUs reaches 3323 GTEPS.


翻译:传统上,强大的并行应用程序被执行在分布式系统上,其中计算节点之间的距离足够远,以至于并行化方案必须最小化通信和同步以实现可扩展性。将通信密集的工作负载映射到分布式系统需要复杂的问题分割和数据集预处理。随着当前以人工智能为驱动的趋势,每个芯片有数千个互连的处理器的机会,有机会重新思考这些通信瓶颈的工作负载。这种瓶颈通常源于数据结构遍历,这会导致不规则的内存访问和较差的缓存局部性。最近的一些工作引入了基于任务的并行化方案,以加速图遍历和其他稀疏工作负载。数据结构遍历被分解为任务并且在处理单元(PUs)之间进行流水线化。Dalorex通过在整个数据集上分散数据到PUs上并在数据本地的PU执行任务,展示了最高的可扩展性(在单个芯片上多达数千个PUs)。但是,当所有内存都在芯片上时,如何扩展到更大的数据集,以及以何种代价,也引发了问题。为了解决这些挑战,我们提出了一种可扩展的体系结构,由数据中心可重构阵列(DCRA)芯片片组组成。包时重新配置使得可以创建针对不同目标指标(例如,时间到解决方案,能源或成本)的芯片产品,而软件重新配置则避免在跨多个芯片包扩展到数百万个PUs时出现网络饱和。我们评估了六个应用程序和四个数据集,使用多种配置和存储技术,以提供关于数据本地执行在规模上的性能,功率和成本的详细分析。我们用RMAT-26的广度优先搜索在一百万个PU上并行化时达到3323 GTEPS。

0
下载
关闭预览

相关内容

【斯坦福博士论文】用于系统设计的图算法,130页pdf
专知会员服务
37+阅读 · 2022年8月22日
【Cell】可扩展深度图神经网络的高性能材料性能预测
专知会员服务
16+阅读 · 2022年5月4日
速度提升49倍,英伟达发布量子混合编程平台QODA
机器之心
0+阅读 · 2022年7月13日
Presto on Apache Kafka 在 Uber的大规模应用
AI前线
0+阅读 · 2022年6月9日
Hierarchically Structured Meta-learning
CreateAMind
23+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
25+阅读 · 2019年5月18日
Unsupervised Learning via Meta-Learning
CreateAMind
41+阅读 · 2019年1月3日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
16+阅读 · 2018年12月24日
【推荐】YOLO实时目标检测(6fps)
机器学习研究会
20+阅读 · 2017年11月5日
【推荐】深度学习目标检测概览
机器学习研究会
10+阅读 · 2017年9月1日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
Arxiv
0+阅读 · 2023年6月2日
Arxiv
0+阅读 · 2023年6月1日
Arxiv
19+阅读 · 2021年6月15日
VIP会员
相关VIP内容
【斯坦福博士论文】用于系统设计的图算法,130页pdf
专知会员服务
37+阅读 · 2022年8月22日
【Cell】可扩展深度图神经网络的高性能材料性能预测
专知会员服务
16+阅读 · 2022年5月4日
相关资讯
速度提升49倍,英伟达发布量子混合编程平台QODA
机器之心
0+阅读 · 2022年7月13日
Presto on Apache Kafka 在 Uber的大规模应用
AI前线
0+阅读 · 2022年6月9日
Hierarchically Structured Meta-learning
CreateAMind
23+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
25+阅读 · 2019年5月18日
Unsupervised Learning via Meta-Learning
CreateAMind
41+阅读 · 2019年1月3日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
16+阅读 · 2018年12月24日
【推荐】YOLO实时目标检测(6fps)
机器学习研究会
20+阅读 · 2017年11月5日
【推荐】深度学习目标检测概览
机器学习研究会
10+阅读 · 2017年9月1日
相关基金
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
Top
微信扫码咨询专知VIP会员