CUDA:确定主机缓冲区是否固定(页面锁定)

时间:2015-03-04 17:38:43

标签: c++ memory cuda gpu

我的问题的简短描述如下:

我开发了一个调用CUDA内核的函数。我的函数接收一个指向主机数据缓冲区(内核的输入和输出)的指针,并且无法控制这些缓冲区的分配。

- >主机数据可能使用malloc或cudaHostAlloc分配。我的功能没有明确告知使用了哪种分配方法。

问题是:我的函数找出主机缓冲区是固定/页面锁定(cudaHostAlloc)还是没有(常规malloc)的可行方法是什么?

我要问的是,如果它们不是页面锁定的,我想使用cudaHostRegister()来制作它们(缓冲区),以使它们适合流。

我尝试了三种失败方式: 1-始终应用cudaHostRegister():如果主机缓冲区已被固定,这种方式并不好 2-运行cudaPointerGetAttributes(),如果返回错误是cudaSuccess,那么缓冲区已被固定,无所事事;否则如果cudaErrorInvalidValue,则应用cudaHostRegister:由于某种原因,这种方式会导致内核执行返回错误 3-运行cudaHostGetFlags(),如果返回不成功,则应用cudaHostRegister:与2相同的行为。

在2-和3-的情况下,错误是“无效的争论”

请注意,我的代码当前不使用流,而是始终为整个主机缓冲区调用cudaMemcpy()。如果我不使用上述三种方法中的任何一种,我的代码将运行完成,无论主机缓冲区是否被固定。

有什么建议吗?非常感谢提前。

1 个答案:

答案 0 :(得分:0)

你的方法2应该工作(我认为方法3也应该工作)。在这种情况下,您可能会对如何进行正确的CUDA错误检查感到困惑。

由于您有一个失败的运行时API调用,如果您在内核调用后执行cudaGetLastError之类的操作,它将显示{{>以前在{{{}上发生的运行时API失败1}}打电话。在您的情况下,这不一定是灾难性的。您要做的是清除该错误,因为您知道它已经发生并且已经正确处理了。您可以通过额外调用cudaPointerGetAttributes()来执行此操作(对于此类“非粘性”API错误,即不会暗示损坏的CUDA上下文的API错误。)

这是一个完全有效的例子:

cudaGetLastError

在您的情况下,我认为您没有正确处理API错误,就像我在评论中所做的那样:

$ cat t642.cu
#include <stdio.h>
#include <stdlib.h>

#define DSIZE 10
#define nTPB 256

#define cudaCheckErrors(msg) \
    do { \
        cudaError_t __err = cudaGetLastError(); \
        if (__err != cudaSuccess) { \
            fprintf(stderr, "Fatal error: %s (%s at %s:%d)\n", \
                msg, cudaGetErrorString(__err), \
                __FILE__, __LINE__); \
            fprintf(stderr, "*** FAILED - ABORTING\n"); \
            exit(1); \
        } \
    } while (0)

__global__ void mykernel(int *data, int n){

  int idx = threadIdx.x+blockDim.x*blockIdx.x;
  if (idx < n) data[idx] = idx;
}

int my_func(int *data, int n){

  cudaPointerAttributes my_attr;
  if (cudaPointerGetAttributes(&my_attr, data) == cudaErrorInvalidValue) {
    cudaGetLastError(); // clear out the previous API error
    cudaHostRegister(data, n*sizeof(int), cudaHostRegisterPortable);
    cudaCheckErrors("cudaHostRegister fail");
    }
  int *d_data;
  cudaMalloc(&d_data, n*sizeof(int));
  cudaCheckErrors("cudaMalloc fail");
  cudaMemset(d_data, 0, n*sizeof(int));
  cudaCheckErrors("cudaMemset fail");
  mykernel<<<(n+nTPB-1)/nTPB, nTPB>>>(d_data, n);
  cudaDeviceSynchronize();
  cudaCheckErrors("kernel fail");
  cudaMemcpy(data, d_data, n*sizeof(int), cudaMemcpyDeviceToHost);
  cudaCheckErrors("cudaMemcpy fail");
  int result = 1;
  for (int i = 0; i < n; i++) if (data[i] != i) result = 0;
  return result;
}

int main(int argc, char *argv[]){

  int *h_data;
  int mysize = DSIZE*sizeof(int);
  int use_pinned = 0;
  if (argc > 1) if (atoi(argv[1]) == 1) use_pinned = 1;
  if (!use_pinned) h_data = (int *)malloc(mysize);
  else {
    cudaHostAlloc(&h_data, mysize, cudaHostAllocDefault);
    cudaCheckErrors("cudaHostAlloc fail");}
  if (!my_func(h_data, DSIZE)) {printf("fail!\n"); return 1;}
  printf("success!\n");
  return 0;
}

$ nvcc -o t642 t642.cu
$ ./t642
success!
$ ./t642 1
success!
$

如果省略此步骤(您可以尝试将其注释掉),那么当您在案例0中运行代码时(即在函数调用之前不使用固定内存),那么您将看起来得到“下一个错误检查步骤中的错误“错误(在我的情况下,下一个API调用,但可能在您的情况下在内核调用之后)。