使用CUDA Profiler nvprof进行内存访问

时间:2014-09-21 07:30:14

标签: cuda profiling gpgpu gpu-programming heterogeneous

我使用nvprof获取以下CUDA代码的全局内存访问次数。内核中的加载数为36(访问d_In数组),内核中的存储数为36 + 36(用于访问d_Out数组和d_rows数组)。因此,全局内存加载的总数为36,全局内存的总数为72.但是,当我使用nvprof CUDA探查器分析代码时,它会报告以下内容:(基本上我想计算全局内存访问的计算(CGMA)比率)

      1                gld_transactions        Global Load Transactions           6           6           6
      1                gst_transactions       Global Store Transactions          11          11          11
      1            l2_read_transactions            L2 Read Transactions         133         133         133
      1           l2_write_transactions           L2 Write Transactions          24          24          24


#include <stdio.h>
#include "cuda_profiler_api.h"
__constant__ int crows;

__global__ void kernel(double *d_In, double *d_Out, int *d_rows){
        int tx=threadIdx.x;
        int bx=blockIdx.x;
        int n=bx*blockDim.x+tx;
        if(n < 36){
                d_Out[n]=d_In[n]+1;
                d_rows[n]=crows;
        }
        return;
}

int main(int argc,char **argv){

     double I[36]={1,5,9,2,6,10,3,7,11,4,8,12,13,17,21,14,18,22,15,19,23,16,20,24,25,29,33,26,30,34,27,31,35,28,32,36};

     double *d_In;
     double *d_Out;
     int *d_rows;

     double Iout[36];
     int rows=5;
     int h_rows[36];

     cudaMemcpyToSymbol(crows,&rows,sizeof(int));
     cudaMalloc(&d_In,sizeof(double)*36);
     cudaMalloc(&d_Out,sizeof(double)*36);
     cudaMalloc(&d_rows,sizeof(int)*36);

     cudaMemcpy(d_In,I,sizeof(double)*36,cudaMemcpyHostToDevice);

     dim3 dimGrid(4,1,1);
     dim3 dimBlock(10,1,1);

     cudaProfilerStart();
     kernel<<<dimGrid,dimBlock>>>(d_In,d_Out,d_rows);
     cudaProfilerStop();

     cudaMemcpy(Iout,d_Out,sizeof(double)*36,cudaMemcpyDeviceToHost);
      cudaMemcpy(h_rows,d_rows,sizeof(int)*36,cudaMemcpyDeviceToHost);


    int i;
     for(i=0;i<36;i++)
       printf("%f %d\n",Iout[i],h_rows[i]);


}

有人能帮助我吗?谢谢

1 个答案:

答案 0 :(得分:2)

习惯性地提出一个问题,一个比#34更具体的问题;有人可以帮助我吗?&#34;您显示的代码没有浮点运算(+,*等),因此没有CGMA可以计算(它为零)。

关于内存事务,您的代码有4个线程块:

 dim3 dimGrid(4,1,1);

每个线程块可以在单独的多处理器上运行。每个块中有10个线程。以下代码行:

            d_Out[n]=d_In[n]+1;

将生成至少一个全局加载事务(d_In)和一个全局存储事务(d_Out)来为线程提供服务。第四个块将具有线程,其活动线程的全局索引(n)将为30-35。当此块执行上面的代码行时,它将生成两个全局加载和两个全局存储事务,因为这些线程需要两个缓存行来为其请求提供服务。因此,这一行代码可能会生成5个全局加载事务和5个全局存储事务。

出于类似的原因,下一行代码:

            d_rows[n]=crows;

可能会产生5个额外的全局商店交易。那么你的探查器输出:

  1                gld_transactions        Global Load Transactions           6           6           6
  1                gst_transactions       Global Store Transactions          11 

我相信我已经解释了6个全局负载事务中的5个,以及11个全局存储事务中的10个。希望这足以让您了解这些数字的来源。