CUDA - atomicAdd仅加起来16777216

时间:2013-09-27 16:34:46

标签: cuda

运行以下内核时,我有以下容易重现的问题,除了原子浮点数之外什么都不做:

#define OUT_ITERATIONS 20000000
#define BLOCKS 12
#define THREADS 192

__global__ void testKernel(float* result) {
    int i = threadIdx.x + blockIdx.x * blockDim.x;
    float bias = 1.0f;
    int n = 1;

    while (i < OUT_ITERATIONS) {
        atomicAdd(result, bias);
        i += BLOCKS * THREADS;
    }
}

内核应该将结果递增OUT_ITERATIONS次数,即20M。我用这个标准代码调用内核:

int main() {
cudaError_t cudaStatus;
float* result;
float* dev_result;

// Choose which GPU to run on, change this on a multi-GPU system.
cudaStatus = cudaSetDevice(0);
if (cudaStatus != cudaSuccess) {
    fprintf(stderr, "cudaSetDevice failed!  Do you have a CUDA-capable GPU installed?");
    goto Error;
}

result = new float;
cudaStatus = cudaMalloc((void**)&dev_result, sizeof(float));
if (cudaStatus != cudaSuccess) {
    fprintf(stderr, "cudaMalloc failed: %s\n", cudaGetErrorString(cudaStatus));
    goto Error;
}
cudaStatus = cudaMemset(dev_result, 0, sizeof(float));
if (cudaStatus != cudaSuccess) {
    fprintf(stderr, "cudaMemset failed: %s\n", cudaGetErrorString(cudaStatus));
    goto Error;
}

// Launch a kernel on the GPU with one thread for each element.
testKernel<<<BLOCKS, THREADS>>>(dev_result);

// Check for any errors launching the kernel
cudaStatus = cudaGetLastError();
if (cudaStatus != cudaSuccess) {
    fprintf(stderr, "addKernel launch failed: %s\n", cudaGetErrorString(cudaStatus));
    goto Error;
}

// cudaDeviceSynchronize waits for the kernel to finish, and returns
// any errors encountered during the launch.
cudaStatus = cudaDeviceSynchronize();
if (cudaStatus != cudaSuccess) {
    fprintf(stderr, "cudaDeviceSynchronize returned error code %d after launching addKernel!\n", cudaStatus);
    goto Error;
}

cudaStatus = cudaMemcpy(result, dev_result, sizeof(float), cudaMemcpyDeviceToHost);
if (cudaStatus != cudaSuccess) {
    fprintf(stderr, "cudaMemcpy failed: %s\n", cudaGetErrorString(cudaStatus));
    goto Error;
}

printf("Result: %f\n", *result);

但是,最后打印的结果是16777216.0,偶然是十六进制的0x1000000。如果OUT_ITERATIONS&lt; ,则不会出现问题 16777216 ,也就是说,如果我将其更改为16777000,确定输出为16777000.0!

系统:NVidia-Titan,CUDA 5.5,Windows7

2 个答案:

答案 0 :(得分:7)

此问题是由于float类型的精确度有限。

float只有24位二进制精度。如果您添加2个数字,其中一个数字比另一个数字大2^24-1倍,则结果将与较大的数字完全相同。

当您添加像16777216.0(= 2 ^ 24)这样的大数字(如1.0)这样的小数字时,您将失去一些精度,结果仍然是16777216.0。同样的情况发生在标准的C propgram中

float a=16777216.0f;
float b=1.0f;
printf("%f\n",a+b);

您可以将float替换为doubleint来解决此问题。

请参阅cuda doc以了解doubleatomicAdd()

的实施情况

http://docs.nvidia.com/cuda/cuda-c-programming-guide/index.html#atomic-functions

答案 1 :(得分:4)

20M不适合float中的可用整数精度。

float数量没有32位尾数(你发现你的观察“偶然为十六进制中的0x1000000”有多少个尾数位),所以它不能用与a相同的方式表示所有整数intunsigned int可以。

16777216是可以可靠地存储在float中的最大整数。

将存储范围限制为适合float的范围,或者如果要将20M可靠地存储为整数,请使用其他表示形式,例如unsigned intdouble。< / p>

这不是真正的CUDA问题。尝试在主机代码中的float中存储大整数时,您会遇到类似的困难。