查看有关CUDA问题的答案和评论,以及CUDA tag wiki,我发现通常建议每个API调用的返回状态都应检查错误。 API文档包含cudaGetLastError
,cudaPeekAtLastError
和cudaGetErrorString
等函数,但是将这些函数放在一起以便可靠地捕获和报告错误而不需要大量额外代码的最佳方法是什么?
答案 0 :(得分:279)
检查运行时API代码中的错误的最佳方法可能是定义一个断言样式处理函数和包装器宏,如下所示:
#define gpuErrchk(ans) { gpuAssert((ans), __FILE__, __LINE__); }
inline void gpuAssert(cudaError_t code, const char *file, int line, bool abort=true)
{
if (code != cudaSuccess)
{
fprintf(stderr,"GPUassert: %s %s %d\n", cudaGetErrorString(code), file, line);
if (abort) exit(code);
}
}
然后,您可以使用gpuErrchk
宏来封装每个API调用,这将处理它包装的API调用的返回状态,例如:
gpuErrchk( cudaMalloc(&a_d, size*sizeof(int)) );
如果调用中存在错误,则会向stderr
发送描述错误的文本消息以及发生错误的代码中的文件和行,然后应用程序将退出。您可以想象修改gpuAssert
以引发异常,而不是在需要时在更复杂的应用程序中调用exit()
。
第二个相关问题是如何检查内核启动中的错误,这些错误无法直接包含在标准运行时API调用之类的宏调用中。对于内核,类似这样:
kernel<<<1,1>>>(a);
gpuErrchk( cudaPeekAtLastError() );
gpuErrchk( cudaDeviceSynchronize() );
首先检查无效的启动参数,然后强制主机等待内核停止并检查执行错误。如果您有后续阻塞API调用,则可以消除同步:
kernel<<<1,1>>>(a_d);
gpuErrchk( cudaPeekAtLastError() );
gpuErrchk( cudaMemcpy(a_h, a_d, size * sizeof(int), cudaMemcpyDeviceToHost) );
在这种情况下,cudaMemcpy
调用可以返回在内核执行期间发生的错误或来自内存复制本身的错误。这对初学者来说可能会造成混淆,我建议在调试期间内核启动后使用显式同步,以便更容易理解可能出现问题的位置。
请注意,使用CUDA Dynamic Parallelism时,可以而且应该将非常类似的方法应用于设备内核中任何CUDA运行时API的使用,以及任何设备内核启动之后:
#include <assert.h>
#define cdpErrchk(ans) { cdpAssert((ans), __FILE__, __LINE__); }
__device__ void cdpAssert(cudaError_t code, const char *file, int line, bool abort=true)
{
if (code != cudaSuccess)
{
printf("GPU kernel assert: %s %s %d\n", cudaGetErrorString(code), file, line);
if (abort) assert(0);
}
}
答案 1 :(得分:68)
上面的talonmies回答是以assert
风格方式中止应用程序的好方法。
有时我们可能希望在C ++上下文中报告并从错误情况中恢复,作为更大应用程序的一部分。
通过使用std::runtime_error
抛出从thrust::system_error
派生的C ++异常,这是一种相当简洁的方法:
#include <thrust/system_error.h>
#include <thrust/system/cuda/error.h>
#include <sstream>
void throw_on_cuda_error(cudaError_t code, const char *file, int line)
{
if(code != cudaSuccess)
{
std::stringstream ss;
ss << file << "(" << line << ")";
std::string file_and_line;
ss >> file_and_line;
throw thrust::system_error(code, thrust::cuda_category(), file_and_line);
}
}
这会将cudaError_t
的文件名,行号和英语描述合并到抛出的异常.what()
成员中:
#include <iostream>
int main()
{
try
{
// do something crazy
throw_on_cuda_error(cudaSetDevice(-1), __FILE__, __LINE__);
}
catch(thrust::system_error &e)
{
std::cerr << "CUDA error after cudaSetDevice: " << e.what() << std::endl;
// oops, recover
cudaSetDevice(0);
}
return 0;
}
输出:
$ nvcc exception.cu -run
CUDA error after cudaSetDevice: exception.cu(23): invalid device ordinal
如果需要,some_function
的客户可以将CUDA错误与其他类型的错误区分开来:
try
{
// call some_function which may throw something
some_function();
}
catch(thrust::system_error &e)
{
std::cerr << "CUDA error during some_function: " << e.what() << std::endl;
}
catch(std::bad_alloc &e)
{
std::cerr << "Bad memory allocation during some_function: " << e.what() << std::endl;
}
catch(std::runtime_error &e)
{
std::cerr << "Runtime error during some_function: " << e.what() << std::endl;
}
catch(...)
{
std::cerr << "Some other kind of error during some_function" << std::endl;
// no idea what to do, so just rethrow the exception
throw;
}
由于thrust::system_error
是std::runtime_error
,如果我们不需要前一个示例的精度,我们也可以采用与广泛类错误相同的方式处理它:
try
{
// call some_function which may throw something
some_function();
}
catch(std::runtime_error &e)
{
std::cerr << "Runtime error during some_function: " << e.what() << std::endl;
}
答案 2 :(得分:20)
我曾经对这个问题感到厌烦;而且我曾经有一个宏观兼容包装功能的解决方案,就像在Talonmies和Jared的答案中一样,但老实说呢?它使得使用CUDA Runtime API变得更加丑陋和类似C语言。
所以我以一种不同的,更根本的方式接近了这一点。有关结果的示例,这里是CUDA vectorAdd
示例的一部分 - 对每个运行时API调用进行完整错误检查:
// (... prepare host-side buffers here ...)
auto current_device = cuda::device::current::get();
auto d_A = cuda::memory::device::make_unique<float[]>(current_device, numElements);
auto d_B = cuda::memory::device::make_unique<float[]>(current_device, numElements);
auto d_C = cuda::memory::device::make_unique<float[]>(current_device, numElements);
cuda::memory::copy(d_A.get(), h_A.get(), size);
cuda::memory::copy(d_B.get(), h_B.get(), size);
// (... prepare a launch configuration here... )
cuda::launch( vectorAdd, launch_config,
d_A.get(), d_B.get(), d_C.get(), numElements
);
cuda::memory::copy(h_C.get(), d_C.get(), size);
// (... verify results here...)
再次 - 通过抛出异常检查和报告所有潜在错误。此代码使用我的
Thin Modern-C++ wrappers for the CUDA Runtime API library(Github)
请注意,在失败的调用之后,异常会带有字符串说明和CUDA运行时API状态代码。
使用这些包装器自动检查CUDA错误的一些链接:
答案 3 :(得分:7)
所讨论的解决方案here对我来说效果很好。该解决方案使用内置的cuda函数,实现起来非常简单。
相关代码复制如下:
#include <stdio.h>
#include <stdlib.h>
__global__ void foo(int *ptr)
{
*ptr = 7;
}
int main(void)
{
foo<<<1,1>>>(0);
// make the host block until the device is finished with foo
cudaDeviceSynchronize();
// check for error
cudaError_t error = cudaGetLastError();
if(error != cudaSuccess)
{
// print the CUDA error message and exit
printf("CUDA error: %s\n", cudaGetErrorString(error));
exit(-1);
}
return 0;
}