我的问题的简短描述如下:
我开发了一个调用CUDA内核的函数。我的函数接收一个指向主机数据缓冲区(内核的输入和输出)的指针,并且无法控制这些缓冲区的分配。
- >主机数据可能使用malloc或cudaHostAlloc分配。我的功能没有明确告知使用了哪种分配方法。
问题是:我的函数找出主机缓冲区是固定/页面锁定(cudaHostAlloc)还是没有(常规malloc)的可行方法是什么?
我要问的是,如果它们不是页面锁定的,我想使用cudaHostRegister()来制作它们(缓冲区),以使它们适合流。
我尝试了三种失败方式: 1-始终应用cudaHostRegister():如果主机缓冲区已被固定,这种方式并不好 2-运行cudaPointerGetAttributes(),如果返回错误是cudaSuccess,那么缓冲区已被固定,无所事事;否则如果cudaErrorInvalidValue,则应用cudaHostRegister:由于某种原因,这种方式会导致内核执行返回错误 3-运行cudaHostGetFlags(),如果返回不成功,则应用cudaHostRegister:与2相同的行为。
在2-和3-的情况下,错误是“无效的争论”
请注意,我的代码当前不使用流,而是始终为整个主机缓冲区调用cudaMemcpy()。如果我不使用上述三种方法中的任何一种,我的代码将运行完成,无论主机缓冲区是否被固定。
有什么建议吗?非常感谢提前。
答案 0 :(得分:0)
你的方法2应该工作(我认为方法3也应该工作)。在这种情况下,您可能会对如何进行正确的CUDA错误检查感到困惑。
由于您有一个失败的运行时API调用,如果您在内核调用后执行cudaGetLastError
之类的操作,它将显示{{>以前在{{{}上发生的运行时API失败1}}打电话。在您的情况下,这不一定是灾难性的。您要做的是清除该错误,因为您知道它已经发生并且已经正确处理了。您可以通过额外调用cudaPointerGetAttributes()
来执行此操作(对于此类“非粘性”API错误,即不会暗示损坏的CUDA上下文的API错误。)
这是一个完全有效的例子:
cudaGetLastError
在您的情况下,我认为您没有正确处理API错误,就像我在评论中所做的那样:
$ cat t642.cu
#include <stdio.h>
#include <stdlib.h>
#define DSIZE 10
#define nTPB 256
#define cudaCheckErrors(msg) \
do { \
cudaError_t __err = cudaGetLastError(); \
if (__err != cudaSuccess) { \
fprintf(stderr, "Fatal error: %s (%s at %s:%d)\n", \
msg, cudaGetErrorString(__err), \
__FILE__, __LINE__); \
fprintf(stderr, "*** FAILED - ABORTING\n"); \
exit(1); \
} \
} while (0)
__global__ void mykernel(int *data, int n){
int idx = threadIdx.x+blockDim.x*blockIdx.x;
if (idx < n) data[idx] = idx;
}
int my_func(int *data, int n){
cudaPointerAttributes my_attr;
if (cudaPointerGetAttributes(&my_attr, data) == cudaErrorInvalidValue) {
cudaGetLastError(); // clear out the previous API error
cudaHostRegister(data, n*sizeof(int), cudaHostRegisterPortable);
cudaCheckErrors("cudaHostRegister fail");
}
int *d_data;
cudaMalloc(&d_data, n*sizeof(int));
cudaCheckErrors("cudaMalloc fail");
cudaMemset(d_data, 0, n*sizeof(int));
cudaCheckErrors("cudaMemset fail");
mykernel<<<(n+nTPB-1)/nTPB, nTPB>>>(d_data, n);
cudaDeviceSynchronize();
cudaCheckErrors("kernel fail");
cudaMemcpy(data, d_data, n*sizeof(int), cudaMemcpyDeviceToHost);
cudaCheckErrors("cudaMemcpy fail");
int result = 1;
for (int i = 0; i < n; i++) if (data[i] != i) result = 0;
return result;
}
int main(int argc, char *argv[]){
int *h_data;
int mysize = DSIZE*sizeof(int);
int use_pinned = 0;
if (argc > 1) if (atoi(argv[1]) == 1) use_pinned = 1;
if (!use_pinned) h_data = (int *)malloc(mysize);
else {
cudaHostAlloc(&h_data, mysize, cudaHostAllocDefault);
cudaCheckErrors("cudaHostAlloc fail");}
if (!my_func(h_data, DSIZE)) {printf("fail!\n"); return 1;}
printf("success!\n");
return 0;
}
$ nvcc -o t642 t642.cu
$ ./t642
success!
$ ./t642 1
success!
$
如果省略此步骤(您可以尝试将其注释掉),那么当您在案例0中运行代码时(即在函数调用之前不使用固定内存),那么您将看起来得到“下一个错误检查步骤中的错误“错误(在我的情况下,下一个API调用,但可能在您的情况下在内核调用之后)。