解释"太多的资源用于发布"

时间:2016-09-28 16:21:00

标签: python numpy cuda pycuda

考虑以下Python代码:

from numpy import float64
from pycuda import compiler, gpuarray
import pycuda.autoinit

# N > 960 is crucial!
N = 961
code = """
__global__ void kern(double *v)
{
    double a = v[0]*v[2];
    double lmax = fmax(0.0, a), lmin = fmax(0.0, -a);
    double smax = sqrt(lmax),   smin = sqrt(lmin);

    if(smax > 0.2) {
        smax = fmin(smax, 0.2)/smax ;
        smin = (smin > 0.0) ? fmin(smin, 0.2)/smin : 0.0;
        smin = lmin + smin*a;

        v[0] = v[0]*smin + smax*lmax;
        v[2] = v[2]*smin + smax*lmax;
    }
}
"""
kernel_func = compiler.SourceModule(code).get_function("kern")
kernel_func(gpuarray.zeros(3, float64), block=(N,1,1))

执行此操作会给出:

Traceback (most recent call last):
  File "test.py", line 25, in <module>
    kernel_func(gpuarray.zeros(3, float64), block=(N,1,1))
  File "/usr/lib/python3.5/site-packages/pycuda/driver.py", line 402, in function_call
    func._launch_kernel(grid, block, arg_buf, shared, None)
pycuda._driver.LaunchError: cuLaunchKernel failed: too many resources requested for launch

我的设置:Python v3.5.2与pycuda == 2016.1.2和numpy == 1.11.1在Ubuntu 16.04.1(64位),内核4.4.0,nvcc V7.5.17上。显卡是Nvidia GeForce GTX 480。

你可以在你的机器上重现这个吗?您有任何想法,是什么原因导致此错误消息?

备注:我知道原则上存在竞争条件,因为所有内核都试图改变v [0]和v [2]。但是内核无论如何都不应该到达if-block的内部!而且,我能够在没有竞争条件的情况下重现错误,但它要复杂得多。

1 个答案:

答案 0 :(得分:2)

几乎可以肯定,您正在达到每块寄存器的限制。

读取relevant documentation,您的设备每个块的限制为32k 32位寄存器。当块大小超过960个线程(30个warp)时,内核启动需要太多寄存器并且启动失败。 NVIDIA提供excel电子表格和advice,了解如何确定每个线程的内核寄存器要求以及可用于内核在设备上启动的限制块大小。