我使用nvprof获取以下CUDA代码的全局内存访问次数。内核中的加载数为36(访问d_In数组),内核中的存储数为36 + 36(用于访问d_Out数组和d_rows数组)。因此,全局内存加载的总数为36,全局内存的总数为72.但是,当我使用nvprof CUDA探查器分析代码时,它会报告以下内容:(基本上我想计算全局内存访问的计算(CGMA)比率)
1 gld_transactions Global Load Transactions 6 6 6
1 gst_transactions Global Store Transactions 11 11 11
1 l2_read_transactions L2 Read Transactions 133 133 133
1 l2_write_transactions L2 Write Transactions 24 24 24
#include <stdio.h>
#include "cuda_profiler_api.h"
__constant__ int crows;
__global__ void kernel(double *d_In, double *d_Out, int *d_rows){
int tx=threadIdx.x;
int bx=blockIdx.x;
int n=bx*blockDim.x+tx;
if(n < 36){
d_Out[n]=d_In[n]+1;
d_rows[n]=crows;
}
return;
}
int main(int argc,char **argv){
double I[36]={1,5,9,2,6,10,3,7,11,4,8,12,13,17,21,14,18,22,15,19,23,16,20,24,25,29,33,26,30,34,27,31,35,28,32,36};
double *d_In;
double *d_Out;
int *d_rows;
double Iout[36];
int rows=5;
int h_rows[36];
cudaMemcpyToSymbol(crows,&rows,sizeof(int));
cudaMalloc(&d_In,sizeof(double)*36);
cudaMalloc(&d_Out,sizeof(double)*36);
cudaMalloc(&d_rows,sizeof(int)*36);
cudaMemcpy(d_In,I,sizeof(double)*36,cudaMemcpyHostToDevice);
dim3 dimGrid(4,1,1);
dim3 dimBlock(10,1,1);
cudaProfilerStart();
kernel<<<dimGrid,dimBlock>>>(d_In,d_Out,d_rows);
cudaProfilerStop();
cudaMemcpy(Iout,d_Out,sizeof(double)*36,cudaMemcpyDeviceToHost);
cudaMemcpy(h_rows,d_rows,sizeof(int)*36,cudaMemcpyDeviceToHost);
int i;
for(i=0;i<36;i++)
printf("%f %d\n",Iout[i],h_rows[i]);
}
有人能帮助我吗?谢谢
答案 0 :(得分:2)
习惯性地提出一个问题,一个比#34更具体的问题;有人可以帮助我吗?&#34;您显示的代码没有浮点运算(+,*等),因此没有CGMA可以计算(它为零)。
关于内存事务,您的代码有4个线程块:
dim3 dimGrid(4,1,1);
每个线程块可以在单独的多处理器上运行。每个块中有10个线程。以下代码行:
d_Out[n]=d_In[n]+1;
将生成至少一个全局加载事务(d_In
)和一个全局存储事务(d_Out
)来为线程提供服务。第四个块将具有线程,其活动线程的全局索引(n
)将为30-35。当此块执行上面的代码行时,它将生成两个全局加载和两个全局存储事务,因为这些线程需要两个缓存行来为其请求提供服务。因此,这一行代码可能会生成5个全局加载事务和5个全局存储事务。
出于类似的原因,下一行代码:
d_rows[n]=crows;
可能会产生5个额外的全局商店交易。那么你的探查器输出:
1 gld_transactions Global Load Transactions 6 6 6
1 gst_transactions Global Store Transactions 11
我相信我已经解释了6个全局负载事务中的5个,以及11个全局存储事务中的10个。希望这足以让您了解这些数字的来源。