为什么国内的AI芯片公司不去支持CUDA,是技术问题还是版权问题?

现在国内很多企业都在做AI芯片,能效比作为最大的竞争点,但缺很少见到对把开发栈支持作为最大卖点,如果可以与CUDA兼容岂不是意味着生态的构建可以事半功…
关注者
359
被浏览
324,051
登录后你可以
不限量看优质回答私信答主深度交流精彩内容一键收藏

GPU可以同时发射成千上万个线程(流处理器SM)

国内AI芯片一般只能发射一个或几个并行计算流(看AI core有多少个),只不过AI core一条指令完成的是tensor乘加计算,这个tensor一般很大,如果用gpu计算可能需要几百几千个线程才能完成。

CUDA大概原理是将大量计算分配到GPU线程,通过多线程并行提速

CUDA如何调用AI core呢?必须要将计算映射到那个大大的tensor(你需要的计算粒度没那么大?抱歉,没的选,那也得空转),需要乘加外其它计算?抱歉没有,不同位置的数据计算不同?抱歉,必须保持一致...

所以,AI芯片根本就支持不了CUDA