We present a SNN simulator which scales to millions of neurons, billions of synapses, and 8 GPUs. This is made possible by 1) a novel, cache-aware spike transmission algorithm 2) a model parallel multi-GPU distribution scheme and 3) a static, yet very effective load balancing strategy. The simulator further features an easy to use API and the ability to create custom models. We compare the proposed simulator against two state of the art ones on a series of benchmarks using three well-established models. We find that our simulator is faster, consumes less memory, and scales linearly with the number of GPUs.
翻译:我们推出一个 SNN 模拟器, 其规模可达到数百万神经元、 数十亿突触和8 GPU 。 之所以能够实现这一点,是因为1 (1) 一个新颖的、 缓冲性快速传输算法 2 和 模型平行的多GPU 分配方案 和 3 模型平行的多GPU 模式 和 静态的、 且非常有效的负载平衡战略 。 模拟器还具有易于使用 API 和创建自定义模型的能力。 我们用三个完善的模型将拟议的模拟器与一系列基准的两种最先进的模拟器作比较。 我们发现我们的模拟器速度更快, 消耗的内存量更少, 且与 GPU 数量线性比例相当 。