人工智能、高性能计算等领域的发展走上了快车道,在这背后,GPU 并行计算给予了它们强有力的支撑。GPU 以其多线程、高并发的特性,能够支持多个小的计算单元同时独立地进行计算,为高性能计算、机器学习等领域中大规模的数据计算提供了强劲算力,并通过快速并行计算的方式大大提升了计算效率。
CUDA 是当前最主流的并行化程序编程方法之一,作为一种立足于 GPU 的并行计算架构,CUDA 能够有效地管理可用资源并提供最大化的执行速度增益。大多数的开发者在开发中,出于对 C 或者 C++ 可移植性和可扩展性的青睐,会倾向于使用这两种语言进行 CUDA 的开发,不过尽管 C、C++ 能最大程度的实现较为复杂的功能,但这也为 CUDA 在开发者中的普及设下了一道门槛。
相比于 C 语言、C++,Python 语言给开发者的限制就少了许多。Python 除了可以支持接入各种各样的开源类库,还具有语法简洁、数据类型丰富、结构清晰等诸多特点,能够满足新手对易用性的要求,也能兼顾更为成熟的开发者对开发性能的需要。随着企业和开发者对开发效率要求的不断提高,加之 Numba 这样支持 Python CUDA 的编译器的出现,用门槛更低、效率更高的 Python 语言替代 C、C++ 进行 CUDA 开发将成为越来越多人的选择。
而不论是对 CUDA 新手,还是对从传统编程语言转向 Python 语言的 CUDA 开发者而言,使用门槛和实现效率固然是选择 CUDA Python 的重要依据,但怎样搭建部署支持 CUDA Python 的计算环境、编程技巧、相关工具的使用才是更加关注的内容。
以上所有问题,你将从 CUDA Python 编程实战在线培训课程中找到答案!
NVIDIA 联合 InfoQ,将为广大有高性能计算和人工智能开发需求的开发者提供一系列的 CUDA Python 编程实战在线培训课程,从理论到实践,带你从零开始全面学习 CUDA Python,打破门槛,轻松编程。
6 月 23 日晚 20:00, NVIDIA 开发者社区高级讲师何琨,将为大家带来 CUDA Python 系列公开课第二期 --「存储管理以及卷积计算」的相关内容。
通过这次在线培训,你将收获以下内容:
深入了解 CUDA 存储模式
CUDA Python 深入的编程技巧
利用 CUDA Python 处理卷积操作
还在等待什么,扫描下方二维码或点击阅读原文,获取直播链接!
添加小助手,获取直播链接