我在python中有一个for循环,我要展开到GPU上。我想必须有一个简单的解决方案,但我还没有找到一个。
我们的函数循环遍历numpy数组中的元素,并将结果存储在另一个numpy数组中。每次迭代都会向此结果数组添加一些内容。我们的代码可能大的简化可能如下所示:
import numpy as np
a = np.arange(100)
out = np.array([0, 0])
for x in xrange(a.shape[0]):
out[0] += a[x]
out[1] += a[x]/2.0
如何在Python中展开这样的循环以在GPU上运行?
答案 0 :(得分:2)
开始的地方是http://documen.tician.de/pycuda/例子
import pycuda.autoinit
import pycuda.driver as drv
import numpy
from pycuda.compiler import SourceModule
mod = SourceModule("""
__global__ void multiply_them(float *dest, float *a, float *b)
{
const int i = threadIdx.x;
dest[i] = a[i] * b[i];
}
""")
multiply_them = mod.get_function("multiply_them")
a = numpy.random.randn(400).astype(numpy.float32)
b = numpy.random.randn(400).astype(numpy.float32)
dest = numpy.zeros_like(a)
multiply_them(
drv.Out(dest), drv.In(a), drv.In(b),
block=(400,1,1), grid=(1,1))
print dest-a*b
将要并行化的代码部分放在C代码段中,并从python中调用它。
对于您的示例,您的数据大小需要远大于100才能使其值得。您需要某种方法将数据划分为块。如果你想添加1,000,000个数字,你可以将它分成1000个块。在并行代码中添加每个块。然后在python中添加结果。
对于这种类型的并行化,添加内容并不是一项自然的任务。 GPU倾向于为每个像素执行相同的任务。您有一项需要对多个像素进行操作的任务。
首先与cuda合作可能会更好。一个相关的线程是。 Understanding CUDA grid dimensions, block dimensions and threads organization (simple explanation)