CUDA:在大型2D阵列上共享内存

时间:2011-04-26 18:13:55

标签: cuda

我有一个简单的CUDA问题用于类分配,但教授添加了一个可选任务来实现使用共享内存的相同算法。我无法在截止日期之前完成它(例如,转入日期是一周前的),但我仍然很好奇所以现在我要问互联网;)。

基本的任务是在顺序和CUDA中实现红黑连续过度放松的混合版本,确保在两者中得到相同的结果,然后比较加速。就像我说的那样,使用共享内存来实现它是一个可选的+ 10%附加组件。

我要发布我的工作版本和伪代码我试图做的事情,因为我现在手中还没有代码,但如果有人需要,我可以稍后用实际代码更新

在有人说之前:是的,我知道使用CUtil是蹩脚的,但它使比较和计时器更容易。

工作全局内存版本:

#include <stdlib.h>
#include <stdio.h>
#include <cutil_inline.h>

#define N 1024

__global__ void kernel(int *d_A, int *d_B) {
    unsigned int index_x = blockIdx.x * blockDim.x + threadIdx.x;
    unsigned int index_y = blockIdx.y * blockDim.y + threadIdx.y;

    // map the two 2D indices to a single linear, 1D index
    unsigned int grid_width = gridDim.x * blockDim.x;
    unsigned int index = index_y * grid_width + index_x;

    // check for boundaries and write out the result
    if((index_x > 0) && (index_y > 0) && (index_x < N-1) && (index_y < N-1))
        d_B[index] = (d_A[index-1]+d_A[index+1]+d_A[index+N]+d_A[index-N])/4;

}

main (int argc, char **argv) {

    int A[N][N], B[N][N];
    int *d_A, *d_B; // These are the copies of A and B on the GPU
    int *h_B; // This is a host copy of the output of B from the GPU
    int i, j;
    int num_bytes = N * N * sizeof(int);

    // Input is randomly generated
    for(i=0;i<N;i++) {
        for(j=0;j<N;j++) {
            A[i][j] = rand()/1795831;
            //printf("%d\n",A[i][j]);
        }
    }

    cudaEvent_t start_event0, stop_event0;
    float elapsed_time0;
    CUDA_SAFE_CALL( cudaEventCreate(&start_event0) );
    CUDA_SAFE_CALL( cudaEventCreate(&stop_event0) );
    cudaEventRecord(start_event0, 0);
    // sequential implementation of main computation
    for(i=1;i<N-1;i++) {
        for(j=1;j<N-1;j++) {
            B[i][j] = (A[i-1][j]+A[i+1][j]+A[i][j-1]+A[i][j+1])/4;
        }
    }
    cudaEventRecord(stop_event0, 0);
    cudaEventSynchronize(stop_event0);
    CUDA_SAFE_CALL( cudaEventElapsedTime(&elapsed_time0,start_event0, stop_event0) );



    h_B = (int *)malloc(num_bytes);
    memset(h_B, 0, num_bytes);
    //ALLOCATE MEMORY FOR GPU COPIES OF A AND B
    cudaMalloc((void**)&d_A, num_bytes);
    cudaMalloc((void**)&d_B, num_bytes);
    cudaMemset(d_A, 0, num_bytes);
    cudaMemset(d_B, 0, num_bytes);

    //COPY A TO GPU
    cudaMemcpy(d_A, A, num_bytes, cudaMemcpyHostToDevice);

    // create CUDA event handles for timing purposes
    cudaEvent_t start_event, stop_event;
    float elapsed_time;
    CUDA_SAFE_CALL( cudaEventCreate(&start_event) );
    CUDA_SAFE_CALL( cudaEventCreate(&stop_event) );
    cudaEventRecord(start_event, 0);

// TODO: CREATE BLOCKS AND THREADS AND INVOKE GPU KERNEL
    dim3 block_size(256,1,1); //values experimentally determined to be fastest

    dim3 grid_size;
    grid_size.x = N / block_size.x;
    grid_size.y = N / block_size.y;

    kernel<<<grid_size,block_size>>>(d_A,d_B);

    cudaEventRecord(stop_event, 0);
    cudaEventSynchronize(stop_event);
    CUDA_SAFE_CALL( cudaEventElapsedTime(&elapsed_time,start_event, stop_event) );

    //COPY B BACK FROM GPU
    cudaMemcpy(h_B, d_B, num_bytes, cudaMemcpyDeviceToHost);

    // Verify result is correct
    CUTBoolean res = cutComparei( (int *)B, (int *)h_B, N*N);
    printf("Test %s\n",(1 == res)?"Passed":"Failed");
    printf("Elapsed Time for Sequential: \t%.2f ms\n", elapsed_time0);
    printf("Elapsed Time for CUDA:\t%.2f ms\n", elapsed_time);
    printf("CUDA Speedup:\t%.2fx\n",(elapsed_time0/elapsed_time));

    cudaFree(d_A);
    cudaFree(d_B);
    free(h_B);

    cutilDeviceReset();
}

对于共享内存版本,这是我到目前为止所尝试的内容:

#define N 1024

__global__ void kernel(int *d_A, int *d_B, int width) {
    //assuming width is 64 because that's the biggest number I can make it
    //each MP has 48KB of shared mem, which is 12K ints, 32 threads/warp, so max 375 ints/thread?
    __shared__ int A_sh[3][66];

    //get x and y index and turn it into linear index

    for(i=0; i < width+2; i++)  //have to load 2 extra values due to the -1 and +1 in algo
          A_sh[index_y%3][i] = d_A[index+i-1]; //so A_sh[index_y%3][0] is actually d_A[index-1]

    __syncthreads(); //and hope that previous and next row have been loaded by other threads in the block?

    //ignore boundary conditions because it's pseudocode
    for(i=0; i < width; i++)
        d_B[index+i] = A_sh[index_y%3][i] + A_sh[index_y%3][i+2] + A_sh[index_y%3-1][i+1] + A_sh[index_y%3+1][i+1];

}

main(){
   //same init as above until threads/grid init

   dim3 threadsperblk(32,16);
   dim3 numblks(32,64);

   kernel<<<numblks,threadsperblk>>>(d_A,d_B,64);

   //rest is the same
}

这个共享内存代码崩溃(“由于未指定的错误导致启动失败”),因为我还没有捕获到所有的边界条件,但我并不像找到正确的方法来解决这个问题。我觉得我的代码太复杂而无法成为正确的路径(特别是与SDK示例相比),但我也看不到另一种方法,因为我的数组不适合共享内存,就像所有示例一样可以找到。

坦率地说,我不确定它在我的硬件上会更快(GTX 560 Ti - 在0.121ms内运行全局内存版本),但我需要先向自己证明:P

编辑2:对于将来遇到这种情况的人来说,如果你想做一些共享内存,答案中的代码是一个很好的起点。

1 个答案:

答案 0 :(得分:10)

在CUDA中获得最大数量的模板运算符的关键是数据重用。我发现最好的方法通常是让每个块“遍历”网格的一个维度。在块将数据的初始块加载到共享存储器之后,只需要从全局存储器读取单个维度(因此行中的主要行2D维度问题)以在第二个及后续的共享存储器中具有必要的数据行计算。其余数据可以重复使用。通过这种算法的前四个步骤可视化共享内存缓冲区的外观:

  1. 输入网格的三个“行”(a,b,c)被加载到共享内存,并且为行(b)计算的模板并写入全局内存

    aaaaaaaaaaaaaaaa bbbbbbbbbbbbbbbb cccccccccccccccc

  2. 将另一行(d)加载到共享内存缓冲区中,替换行(a),并使用不同的模板对行(c)进行计算,反映行数据在共享内存中的位置

    dddddddddddddddd bbbbbbbbbbbbbbbb cccccccccccccccc

  3. 将另一行(e)加载到共享内存缓冲区中,使用步骤1或2中的不同模板替换行(b)和行(d)的计算。

    dddddddddddddddd eeeeeeeeeeeeeeee cccccccccccccccc

  4. 将另一行(f)加载到共享内存缓冲区中,替换行(c),并对行(e)进行计算。现在数据返回到步骤1中使用的相同布局,并且可以使用步骤1中使用的相同模板。

    dddddddddddddddd eeeeeeeeeeeeeeee FFFFFFFFFFFFFFFF

  5. 重复整个循环,直到块遍历输入网格的完整列长度。使用不同模板而不是在共享内存缓冲区中移动数据的原因在于性能 - 共享内存在Fermi上只有大约1000 Gb / s的带宽,并且数据的移位将成为完全最佳代码的瓶颈。您应该尝试不同的缓冲区大小,因为您可能会发现较小的缓冲区允许更高的占用率和更高的内核吞吐量。

    编辑:举例说明如何实施:

    template<int width>
    __device__ void rowfetch(int *in, int *out, int col)
    {
        *out = *in;
        if (col == 1) *(out-1) = *(in-1);   
        if (col == width) *(out+1) = *(in+1);   
    }
    
    template<int width>
    __global__ operator(int *in, int *out, int nrows, unsigned int lda)
    {
        // shared buffer holds three rows x (width+2) cols(threads)
        __shared__ volatile int buffer [3][2+width]; 
    
        int colid = threadIdx.x + blockIdx.x * blockDim.x;
        int tid = threadIdx.x + 1;
    
        int * rowpos = &in[colid], * outpos = &out[colid];
    
        // load the first three rows (compiler will unroll loop)
        for(int i=0; i<3; i++, rowpos+=lda) {
            rowfetch<width>(rowpos, &buffer[i][tid], tid);
        }
    
        __syncthreads(); // shared memory loaded and all threads ready
    
        int brow = 0; // brow is the next buffer row to load data onto
        for(int i=0; i<nrows; i++, rowpos+=lda, outpos+=lda) {
    
            // Do stencil calculations - use the value of brow to determine which
            // stencil to use
            result = ();
            // write result to outpos
            *outpos = result;
    
            // Fetch another row
            __syncthreads(); // Wait until all threads are done calculating
            rowfetch<width>(rowpos, &buffer[brow][tid], tid);
            brow = (brow < 2) ? (brow+1) : 0; // Increment or roll brow over
            __syncthreads(); // Wait until all threads have updated the buffer
        }
    }