我正在使用cudaMalloc和cudaMemcpy来分配一个矩阵并将其复制到它的向量数组中,如下所示:
float **pa;
cudaMalloc((void***)&pa, N*sizeof(float*)); //this seems to be ok
for(i=0; i<N; i++) {
cudaMalloc((void**) &(pa[i]), N*sizeof(float)); //this gives seg fault
cudaMemcpy (pa[i], A[i], N*sizeof(float), cudaMemcpyHostToDevice); // also i am not sure about this
}
我的指示有什么问题? 提前致谢
P.S。 A [i]是向量
现在我正在尝试将设备中的矩阵复制到主机的矩阵中:
假设我在设备中有** pc,并且** pgpu在主机中:
cudaMemcpy (pgpu, pc, N*sizeof(float*), cudaMemcpyDeviceToHost);
for (i=0; i<N; i++)
cudaMemcpy(pgpu[i], pc[i], N*sizeof(float), cudaMemcpyDeviceToHost);
=错了....
答案 0 :(得分:5)
pa
位于设备内存中,因此&(pa[i])
无法满足您的预期。这将有效
float **pa;
float **pah = (float **)malloc(pah, N * sizeof(float *));
cudaMalloc((void***)&pa, N*sizeof(float*));
for(i=0; i<N; i++) {
cudaMalloc((void**) &(pah[i]), N*sizeof(float));
cudaMemcpy (pah[i], A[i], N*sizeof(float), cudaMemcpyHostToDevice);
}
cudaMemcpy (pa, pah, N*sizeof(float *), cudaMemcpyHostToDevice);
即。在主机内存中构建指针数组,然后将其复制到设备中。 我不确定你希望从 A
读到什么,但我怀疑内部cudaMemcpy
可能没有做你想要的写作。
预先警告,从性能的角度来看,指针数组在GPU上并不是一个好主意。
答案 1 :(得分:2)
此代码的最终目标是什么?如上所述,将pa压缩成一维阵列以便在GPU上使用可能符合您的最佳利益。类似的东西:
float *pa;
cudaMalloc((void**)&pa, N*N*sizeof(float));
不幸的是,你必须调整A [i]以这种方式进行记忆复制。