CUDA同步和读取全局内存

时间:2011-11-22 22:10:59

标签: cuda

我有这样的事情:

__global__ void globFunction(int *arr, int N) {
    int idx = blockIdx.x* blockDim.x+ threadIdx.x;
    // calculating and Writing results to arr ...
    __syncthreads();
    // reading values of another threads(ex i+1)
    int val = arr[idx+1]; // IT IS GIVING OLD VALUE
}


int main() {
    // declare array, alloc memory, copy memory, etc.
    globFunction<<< 4000, 256>>>(arr, N); 
    // do something ...
    return 0;
}

为什么我在阅读arr[idx+1]时获得旧值?我打电话给__syncthreads,所以我希望看到更新的价值。我做错了什么?我在读缓存还是什么?

1 个答案:

答案 0 :(得分:2)

使用__syncthreads()函数仅同步当前块中的线程。在这种情况下,这将是您在启动内核时创建的每个块的256个线程。因此,在给定的数组中,对于跨越到另一个线程块的每个索引值,您最终将从全局内存中读取一个与当前块中的线程不同步的值。

您可以做的一件事就是绕过这个问题是使用__shared__ CUDA指令创建共享线程本地存储,该指令允许块中的线程在它们之间共享信息,但阻止来自其他块的线程访问内存为当前块分配。一旦您在块中的计算完成(并且您可以使用__syncthreads()执行此任务),您就可以将共享块级存储中的值复制回全局可访问的内存。

您的内核可能类似于:

__global__ void globFunction(int *arr, int N) 
{
    __shared__ int local_array[THREADS_PER_BLOCK];  //local block memory cache           
    int idx = blockIdx.x* blockDim.x+ threadIdx.x;

    //...calculate results
    local_array[threadIdx.x] = results;

    //synchronize the local threads writing to the local memory cache
    __syncthreads();

    // read the results of another thread in the current thread
    int val = local_array[(threadIdx.x + 1) % THREADS_PER_BLOCK];

    //write back the value to global memory
    arr[idx] = val;        
}

如果必须跨块同步线程,则应该寻找另一种方法来解决问题,因为当问题可以分解为块时,CUDA编程模型最有效,并且线程同步只需要在一个街区。