二维阵列的cudamalloc

时间:2015-04-13 16:47:43

标签: c++ cuda malloc

我正在尝试将2D矩阵从主机复制到设备。我写了这个

    int dev=0;
    cudaSetDevice(dev);

    uint16_t * dev_matrix;
    size_t pitch;
    cudaMallocPitch(&dev_matrix,&pitch, 1024*sizeof(uint16_t), 65536);
    cudaMemcpy2D(dev_matrix, pitch, matrix, 1024*sizeof(uint16_t),  1024*sizeof(uint16_t), 65536, cudaMemcpyHostToDevice);
    //kernel function to implement
    cudaFree(dev_matrix);
    free (matrix);

matrix是2D uint16_t向量(1024x65536)。这段代码返回我的分段错误,我无法理解为什么

1 个答案:

答案 0 :(得分:1)

这不能用作单个cudaMemcpy操作的来源:

uint16_t **matrix = new uint16_t*[1024]; 
for(int h = 0; h < 1024; ++h) matrix[h] = new uint16_t[65536];

主机代码中对new的每次调用都会创建一个单独的分配,并且无法保证它们是连续的或相邻的。因此,我们无法将单个指针传递给cudaMemcpy2D,并期望它能够发现所有分配的位置。 cudaMemcpy2D期望一个连续的分配。

请注意,cudaMemcpy2D需要一个指针(*)并且您正在传递双指针(**)。

最简单的解决方案是将matrix扁平化为:

uint16_t *matrix = new uint16_t[1024*65536];

并使用索引算法进行2D访问。