为什么国内的AI芯片公司不去支持CUDA,是技术问题还是版权问题?
关注者
359被浏览
324,051登录后你可以
不限量看优质回答私信答主深度交流精彩内容一键收藏
GPU可以同时发射成千上万个线程(流处理器SM)
国内AI芯片一般只能发射一个或几个并行计算流(看AI core有多少个),只不过AI core一条指令完成的是tensor乘加计算,这个tensor一般很大,如果用gpu计算可能需要几百几千个线程才能完成。
CUDA大概原理是将大量计算分配到GPU线程,通过多线程并行提速
CUDA如何调用AI core呢?必须要将计算映射到那个大大的tensor(你需要的计算粒度没那么大?抱歉,没的选,那也得空转),需要乘加外其它计算?抱歉没有,不同位置的数据计算不同?抱歉,必须保持一致...
所以,AI芯片根本就支持不了CUDA