我正在将2D square matrix
的矢量化表示传递给CUDA
设备。我在网上找到了如何在CUDA
设备上使用此格式的两个矩阵执行矩阵乘法。
但是,我现在需要在设备之前获取矩阵的原始索引。
这是我传递给cuda_kernel
#define MATRIX_SIZE 20
#define BLOCK_SIZE 2
#define TILE_SIZE 2
void cuda_stuff(int sz, double **A)
{
double* A1d = matrix_to_vector(sz, A);
double* d_A
size_t sizeA = sz * sz * sizeof(double);
cudaMalloc(&d_A, sizeA);
cudaMemcpy(d_A, A1d, sizeA, cudaMemcpyHostToDevice);
dim3 threads(BLOCK_SIZE, BLOCK_SIZE);
dim3 grid(MATRIX_SIZE / threads.x, MATRIX_SIZE / threads.y);
cudakernel<<<grid, threads>>>(sz, d_A);
}
这是我的cudakernel
__global__ void cudakernel(int sz, double* A_d);
{
int tx = blockIdx.x * TILE_SIZE + threadIdx.x;
int ty = blockIdx.y * TILE_SIZE + threadIdx.y;
/* Need to get original i, j from my matrix double* A */
}
如何获得矩阵double* A
的原始索引[i] [j]?
答案 0 :(得分:2)
只有MATRIX_SIZE
可以被BLOCK_SIZE
整除(并且BLOCK_SIZE
必须与TILE_SIZE
相同),否则您的代码才能正常运行。此代码似乎设置为仅处理方形矩阵,因此我假设您的原始A
矩阵的大小为MATRIX_SIZE
,MATRIX_SIZE
)。
鉴于该条款,以下内容应检索对应于给定线程的原始元素A:
double my_A_element = A_d[ty*MATRIX_SIZE+tx];
如果您愿意,(再次,考虑到上述条件),您可以使用内置变量:
double my_A_element = A_d[ty*(blockDim.x*gridDim.x)+tx];
或等同于:
double my_A_element = A_d[ty*sz+tx];
关于索引,tx
变量已正确定义,以便将原始列索引提供给A
,并且ty
变量已正确定义,以便为您提供原始行索引A
,用于上面定义的my_A_element
变量。
因此A
的原始元素(对应my_A_element
)只是A[ty][tx]