CUDA atomicAdd跨块

时间:2013-09-26 11:50:24

标签: cuda

我无法让atomicAdd函数在所有块上运行。事实证明,以下内核代码为我提供了一个块中的线程总数(例如< 5000):

__global __ void kernelCode(float *result)
{
    int index = threadIdx.x+blockIdx.x*blockDim.x;
    if (index < 5000)
    {
        atomicAdd(result, 1.0f);
    }
}

您能告诉我如何在某个值中添加内容而不分配整个1.0f数组吗?这是因为我在资源非常有限的系统上使用此代码 - 每一位都很重要。

1 个答案:

答案 0 :(得分:2)

此代码可以跨多个块工作,而无需分配1.0f数组。 if (index < 5000)语句无意将您限制为单个线程块。它旨在确保整个网格中只有合法的线程参与操作。

尝试这样的事情:

#include <iostream>
#define TOTAL_SIZE 100000
#define nTPB 256

#define cudaCheckErrors(msg) \
    do { \
        cudaError_t __err = cudaGetLastError(); \
        if (__err != cudaSuccess) { \
            fprintf(stderr, "Fatal error: %s (%s at %s:%d)\n", \
                msg, cudaGetErrorString(__err), \
                __FILE__, __LINE__); \
            fprintf(stderr, "*** FAILED - ABORTING\n"); \
            exit(1); \
        } \
    } while (0)

__global__ void kernelCode(float *result)
{
    int index = threadIdx.x+blockIdx.x*blockDim.x;
    if (index < TOTAL_SIZE)
    {
        atomicAdd(result, 1.0f);
    }
}

int main(){

  float h_result, *d_result;
  cudaMalloc((void **)&d_result, sizeof(float));
  cudaCheckErrors("cuda malloc fail");
  h_result = 0.0f;
  cudaMemcpy(d_result, &h_result, sizeof(float), cudaMemcpyHostToDevice);
  cudaCheckErrors("cudaMemcpy 1 fail");
  kernelCode<<<(TOTAL_SIZE+nTPB-1)/nTPB, nTPB>>>(d_result);
  cudaDeviceSynchronize();
  cudaCheckErrors("kernel fail");
  cudaMemcpy(&h_result, d_result, sizeof(float), cudaMemcpyDeviceToHost);
  cudaCheckErrors("cudaMemcpy 2 fail");
  std::cout<< "result = " << h_result << std::endl;
  return 0;
}

您可以将TOTAL_SIZE更改为方便地适合float

的任何数字

请注意,我在浏览器中输入了此代码,可能会出现打字错误。