Qt和CUDA VIsual Profiler内存传输大小错误

时间:2011-04-26 16:47:22

标签: qt profiling cuda

我准备了一个.pro文件,用于在Linux机器(64位)中使用Qt和CUDA。当我将应用程序运行到CUDA探查器中时,应用程序执行了12次,但在出现结果之前我得到了下一个错误:

  

在第6行的探测器数据文件'/home/myusername/development/qtspace/bin/temp_compute_profiler_0_0.csv'中列内存传输大小错误。

main.cpp文件就像

一样简单
#include <QtCore/QCoreApplication> 
extern "C"
void runCudaPart();

int main(int argc, char *argv[])
{
    QCoreApplication a(argc, argv);
    runCudaPart();
    return 0;
}

事实是,如果我删除“QCoreApplication a(argc,argv);”将CUDA Visual Profiler作为例外工作并显示所有结果。

我已经检查过,如果我导出CUDA_PROFILE = 1环境变量,则从命令行生成cuda_profile.log。如果我导出COMPUTE_PROFILE_CSV = 1变量但是当我尝试导入该文件时CUDA Visual Profiler崩溃,也会生成逗号分隔文件。

有关此问题的任何提示?它似乎与CUDA visual Profiler应用程序有关,而与代码无关。

如果你想知道我为什么用Qt做了这么简单的main.cpp但没有使用Qt:P是我希望将来改进框架来添加GUI。

// CUDA,GPU,OS,QT和编译器版本的详细信息

  Device"GeForce GTX 480"
  CUDA Driver Version:                           3.20
  CUDA Runtime Version:                          3.20
  CUDA Capability Major/Minor version number:    2.0
  OS: ubuntu 10.04 LTS
  QT_VERSION: 263682
  QT_VERSION_STR: 4.6.2
  gcc version 4.4.3
  nvcc compilation tool, release 3.2, V0.2.122

我注意到问题出在 QCoreApplication构造上。它与参数有关。如果我将该行修改为:

QCoreApplication a();

Visual Profiler作为例外工作。很难知道发生了什么,以及这种变化将来会成为一个问题。任何提示?

关于QCoreApplication构造,如果我在QCoreApplication之前调用cuda部分,该示例也可以工作。

// this way the example works.
runCudaPart();
QCoreApplication a(argc, argv);

提前致谢。

2 个答案:

答案 0 :(得分:2)

我无法在64位Ubuntu 10.04LTS系统上使用CUDA 3.2和QT4重现这一点。我拿了这个主要的:

#include <QtCore/QCoreApplication>

extern float cudamain();

int main(int argc, char *argv[])
{
    QCoreApplication a(argc, argv);

    float gflops = cudamain();

    return 0;
}

和包含此内容的cudamain()

#include <assert.h>

#define blocksize 16
#define HM (4096) 
#define WM (4096) 
#define WN (4096)
#define HN WM 
#define WP WN   
#define HP HM  
#define PTH WM
#define PTW HM

__global__ void nonsquare(float*M, float*N, float*P, int uWM,int uWN)
{
    __shared__ float MS[blocksize][blocksize];
    __shared__ float NS[blocksize][blocksize];

    int tx=threadIdx.x, ty=threadIdx.y, bx=blockIdx.x, by=blockIdx.y;
    int rowM=ty+by*blocksize;
    int colN=tx+bx*blocksize;
    float Pvalue=0;

    for(int m=0; m<uWM; m+=blocksize){
        MS[ty][tx]=M[rowM*uWM+(m+tx)] ;
        NS[ty][tx]=M[colN + uWN*(m+ty)];
        __syncthreads();
        for(int k=0;k<blocksize;k++)
            Pvalue+=MS[ty][k]*NS[k][tx];
        __syncthreads();
    }
    P[rowM*WP+colN]=Pvalue;
}

inline void gpuerrorchk(cudaError_t state)
{
    assert(state == cudaSuccess);
}

float cudamain(){

    cudaEvent_t evstart, evstop;
    cudaEventCreate(&evstart);
    cudaEventCreate(&evstop);

    float*M=(float*)malloc(sizeof(float)*HM*WM);
    float*N=(float*)malloc(sizeof(float)*HN*WN);

    for(int i=0;i<WM*HM;i++)
        M[i]=(float)i;
    for(int i=0;i<WN*HN;i++)
        N[i]=(float)i;

    float*P=(float*)malloc(sizeof(float)*HP*WP);

    float *Md,*Nd,*Pd;
    gpuerrorchk( cudaMalloc((void**)&Md,HM*WM*sizeof(float)) );
    gpuerrorchk( cudaMalloc((void**)&Nd,HN*WN*sizeof(float)) );
    gpuerrorchk( cudaMalloc((void**)&Pd,HP*WP*sizeof(float)) );

    gpuerrorchk( cudaMemcpy(Md,M,HM*WM*sizeof(float),cudaMemcpyHostToDevice) );
    gpuerrorchk( cudaMemcpy(Nd,N,HN*WN*sizeof(float),cudaMemcpyHostToDevice) );

    dim3 dimBlock(blocksize,blocksize);//(tile_width , tile_width);
    dim3 dimGrid(WN/dimBlock.x,HM/dimBlock.y);//(width/tile_width , width/tile_witdh);

    gpuerrorchk( cudaEventRecord(evstart,0) );

    nonsquare<<<dimGrid,dimBlock>>>(Md,Nd,Pd,WM, WN);
    gpuerrorchk( cudaPeekAtLastError() );

    gpuerrorchk( cudaEventRecord(evstop,0) );
    gpuerrorchk( cudaEventSynchronize(evstop) );
    float time;
    cudaEventElapsedTime(&time,evstart,evstop);

    gpuerrorchk( cudaMemcpy(P,Pd,WP*HP*sizeof(float),cudaMemcpyDeviceToHost) );

    cudaFree(Md);
    cudaFree(Nd);
    cudaFree(Pd);

    float gflops=(2.e-6*WM*WM*WM)/(time);

    cudaThreadExit();

    return gflops;

}

(除了执行内存事务和运行内核之外,不注意实际代码,否则这是无稽之谈)。

编译代码如下:

cuda:~$ nvcc -arch=sm_20 -c -o cudamain.o cudamain.cu 
cuda:~$ g++ -o qtprob -I/usr/include/qt4 qtprob.cc cudamain.o -L $CUDA_INSTALL_PATH/lib64 -lQtCore -lcuda -lcudart
cuda:~$ ldd qtprob
        linux-vdso.so.1 =>  (0x00007fff242c8000)
        libQtCore.so.4 => /opt/cuda-3.2/computeprof/bin/libQtCore.so.4 (0x00007fbe62344000)
        libcuda.so.1 => /usr/lib/libcuda.so.1 (0x00007fbe61a3d000)
        libcudart.so.3 => /opt/cuda-3.2/lib64/libcudart.so.3 (0x00007fbe617ef000)
        libstdc++.so.6 => /usr/lib/libstdc++.so.6 (0x00007fbe614db000)
        libm.so.6 => /lib/libm.so.6 (0x00007fbe61258000)
        libgcc_s.so.1 => /lib/libgcc_s.so.1 (0x00007fbe61040000)
        libc.so.6 => /lib/libc.so.6 (0x00007fbe60cbd000)
        libz.so.1 => /lib/libz.so.1 (0x00007fbe60aa6000)
        libgthread-2.0.so.0 => /usr/lib/libgthread-2.0.so.0 (0x00007fbe608a0000)
        libglib-2.0.so.0 => /lib/libglib-2.0.so.0 (0x00007fbe605c2000)
        librt.so.1 => /lib/librt.so.1 (0x00007fbe603ba000)
        libpthread.so.0 => /lib/libpthread.so.0 (0x00007fbe6019c000)
        libdl.so.2 => /lib/libdl.so.2 (0x00007fbe5ff98000)
        /lib64/ld-linux-x86-64.so.2 (0x00007fbe626c0000)
        libpcre.so.3 => /lib/libpcre.so.3 (0x00007fbe5fd69000)

生成一个可执行文件,可以使用CUDA 3.2发布分析器运行它,无需错误。

我所能建议的只是尝试我的复制案例,看看它是否有效。如果它失败了,那么也许你有一个破坏的CUDA或QT安装。如果它没有失败(我怀疑它不会失败),那么你要么对构建QT项目的方式或你自己运行的实际CUDA代码有疑问。

答案 1 :(得分:2)

@pQB 您好,我是NVIDIA的Ramesh。我们无法在本地重现此问题。当该列的值为空或无效时,会出现此类错误。在您的情况下(对于列'内存传输大小)的第6行的探查器数据文件'/home/myusername/development/qtspace/bin/temp_compute_profiler_0_0.csv'中的错误,列'内存传输大小'的值为空或无效对于行号6在csv文件中。

如果你的工作目录中存在'temp_compute_profiler_0_0.csv',并且命令行分析器生成的csv,你可以发送它吗?如果无法检查您在该行中获得的值(内存传输大小)。 6。

您是否在Visual Profiler中使用默认设置运行应用程序?您可以尝试运行应用程序禁用“内存传输大小”选项吗?要禁用此选项,请单击菜单“会话 - >会话设置...”,在会话设置对话框中单击“其他选项”选项卡,取消选中“内存传输大小”