我有一个关于使用Continuum的Accelerate和numba包中的Python CUDA库的问题。装饰师@jit
和target = gpu
使用的@cuda.jit
是否与max_element
相同?
答案 0 :(得分:3)
不,它们不一样,尽管最终汇编到PTX汇编程序的路径是。 @jit
装饰器是通用编译器路径,可以选择性地引导到CUDA设备上。 @cuda.jit
装饰器实际上是Continuum Analytics开发的低级Python CUDA内核方言。因此,您可以获得threadIdx
等CUDA内置变量和__shared__
中@cuda.jit
等内存空间说明符的支持。
如果要在Python中编写CUDA内核并编译并运行它,请使用@cuda.jit
。否则,如果您想加速现有的Python,请使用带有CUDA目标的@jit
。