对我来说,如何在cuda设备上共享内存是有用的。我很好奇计算线程可以访问相同的共享内存。为此,我写了一个简单的程序
#include <cuda_runtime.h>
#include <stdio.h>
#define nblc 13
#define nthr 1024
//------------------------@device--------------------
__device__ int inwarpD[nblc];
__global__ void kernel(){
__shared__ int mywarp;
mywarp=0;
for (int i=0;i<5;i++) mywarp += (10000*threadIdx.x+1);
__syncthreads();
inwarpD[blockIdx.x]=mywarp;
}
//------------------------@host-----------------------
int main(int argc, char **argv){
int inwarpH[nblc];
cudaSetDevice(2);
kernel<<<nblc, nthr>>>();
cudaMemcpyFromSymbol(inwarpH, inwarpD, nblc*sizeof(int), 0, cudaMemcpyDeviceToHost);
for (int i=0;i<nblc;i++) printf("%i : %i\n",i, inwarpH[i]);
}
并在K80 GPU上运行它。由于几个线程可以访问相同的共享内存变量,因此我预计此变量将更新5 * nthr次,但由于存在冲突,因此不会处于同一周期。但是,输出表明 mywarp 共享变量仅更新了5次。对于每个块,不同的线程完成了这项任务:
0 : 35150005
1 : 38350005
2 : 44750005
3 : 38350005
4 : 51150005
5 : 38350005
6 : 38350005
7 : 38350005
8 : 51150005
9 : 44750005
10 : 51150005
11 : 38350005
12 : 38350005
相反,我期待
523776*10000+5*1024=5237765120
每个块。有人可以向我解释我对共享内存的理解失败的地方。我还想知道一个块中的所有线程如何访问(更新)相同的共享变量。我知道在同一个MP循环中不可能。序列化对我来说很好,因为它将是一个罕见的事件。
答案 0 :(得分:1)
让我们来看看它产生的ptx。
//Declare some registers
.reg .s32 %r<5>;
.reg .s64 %rd<4>;
// demoted variable
.shared .align 4 .u32 _Z6kernelv$__cuda_local_var_35411_30_non_const_mywarp;
//load tid in register r1
mov.u32 %r1, %tid.x;
//multiple tid*5000+5 and store in r2
mad.lo.s32 %r2, %r1, 50000, 5;
//store result in shared memory
st.shared.u32 [_Z6kernelv$__cuda_local_var_35411_30_non_const_mywarp], %r2;
///synchronize
bar.sync 0;
//load from shared memory and store in r3
ld.shared.u32 %r3, [_Z6kernelv$__cuda_local_var_35411_30_non_const_mywarp];
mov.u32 %r4, %ctaid.x;
mul.wide.u32 %rd1, %r4, 4;
mov.u64 %rd2, inwarpD;
add.s64 %rd3, %rd2, %rd1;
//store r3 in global memory
st.global.u32 [%rd3], %r3;
ret;
所以基本上
for (int i=0;i<5;i++)
mywarp += (10000*threadIdx.x+1);
正在优化到
mywarp=50000*threadIdx.x+5
所以你没有遇到银行冲突。你正在经历一场竞争。