在构建的调试程序(使用cuda-gdb进行调试的nvcc -g -G)和GPU资源消耗之间是否存在某种联系?
我在gtx 1080 GPU上使用Ubuntu 16.04,工具包8.0,并使用GPU后端C ++代码在Tensorflow 1.4.0中调试了一些深度学习代码。一旦我切换为使用调试信息构建代码,它就会以
中断cudaCheckError() too many resources requested for launch
注意到,尽管我的代码已经相当接近GPU的限制,但是在构建发行版后,它没有这个问题。在这种情况下,我如何设法进行构建和调试?