cudamemset和cudaCheckError()的计算输出失败:请求太多的启动资源

时间:2019-03-22 05:58:41

标签: debugging tensorflow deep-learning gpu cuda-gdb

在构建的调试程序(使用cuda-gdb进行调试的nvcc -g -G)和GPU资源消耗之间是否存在某种联系?

我在gtx 1080 GPU上使用Ubuntu 16.04,工具包8.0,并使用GPU后端C ++代码在Tensorflow 1.4.0中调试了一些深度学习代码。一旦我切换为使用调试信息构建代码,它就会以

中断
cudaCheckError() too many resources requested for launch

注意到,尽管我的代码已经相当接近GPU的限制,但是在构建发行版后,它没有这个问题。在这种情况下,我如何设法进行构建和调试?

0 个答案:

没有答案