我被这个错误困扰了很长一段时间,所以我决定把它发布在这里。
当调用cudaMemcpy时发生此分段错误:
CurrentGrid->cdata[i] = new float[size];
cudaMemcpy(CurrentGrid->cdata[i], Grid_dev->cdata[i], size*sizeof(float),\
cudaMemcpyDeviceToHost);
CurrentGrid
和Grid_dev
分别指向主机和设备上的grid
类对象,在此上下文中i = 0。类成员cdata
是一个浮点类型指针数组。为了进行调试,在此cudaMemcpy调用之前,我打印出Grid_Dev->cdata[i]
的每个元素的值,CurrentGrid->cdata[i]
和Grid_dev->cdata[i]
的地址以及size
的值,这看起来都是好。但它仍然以“分段故障(核心转储)”结束,这是唯一的错误消息。 cuda-memcheck只给出了“进程没有成功终止”。我目前无法使用cuda-gdb。关于去哪儿的任何建议?
UPDATE :现在看来我已经通过cudaMalloc解决了这个问题,设备上的另一个浮点指针A和cudaMemcpy的值为Grid_dev-> cdata [i]为A,然后cudaMemcpy为主机。 所以上面写的代码段变成了:
float * A;
cudaMalloc((void**)&A, sizeof(float));
...
...
cudaMemcpy(&A, &(Grid_dev->cdata[i]), sizeof(float *), cudaMemcpyDeviceToHost);
CurrentGrid->cdata[i] = new float[size];
cudaMemcpy(CurrentGrid->cdata[i], A, size*sizeof(float), cudaMemcpyDeviceToHost);
我之所以这样做,是因为valgrind弹出“无效读取大小8”,我认为这是指Grid_dev->cdata[i]
。我用gdb再次检查它,打印出Grid_dev->cdata[i]
的值为NULL。所以我想即使在这个cudaMemcpy调用中也无法直接取消引用设备指针。但为什么 ?根据这个thread底部的评论,我们应该能够在cudaMemcpy函数中取消引用设备指针。
另外,我不知道cudaMalloc和cudaMemcpy如何工作的基本机制,但我认为cudaMalloc是一个指针,在这里说A,我们实际上指定这个指针指向设备上的某个地址。并且通过cudaMemcpy Grid_dev->cdata[i]
到A,如上面的修改代码,我们重新分配指针A指向数组。那么,当它是cudaMalloced时,我们不会失去A指向的先前地址的轨道吗?这会导致内存泄漏吗?如果是的话,我应该如何妥善解决这种情况?
谢谢!
作为参考,我把下面发生了这个错误的完整函数的代码。
非常感谢!
__global__ void Print(grid *, int);
__global__ void Printcell(grid *, int);
void CopyDataToHost(param_t p, grid * CurrentGrid, grid * Grid_dev){
cudaMemcpy(CurrentGrid, Grid_dev, sizeof(grid), cudaMemcpyDeviceToHost);
#if DEBUG_DEV
cudaCheckErrors("cudaMemcpy1 error");
#endif
printf("\nBefore copy cell data\n");
Print<<<1,1>>>(Grid_dev, 0); //Print out some Grid_dev information for
cudaDeviceSynchronize(); //debug
int NumberOfBaryonFields = CurrentGrid->ReturnNumberOfBaryonFields();
int size = CurrentGrid->ReturnSize();
int vsize = CurrentGrid->ReturnVSize();
CurrentGrid->FieldType = NULL;
CurrentGrid->FieldType = new int[NumberOfBaryonFields];
printf("CurrentGrid size is %d\n", size);
for( int i = 0; i < p.NumberOfFields; i++){
CurrentGrid->cdata[i] = NULL;
CurrentGrid->vdata[i] = NULL;
CurrentGrid->cdata[i] = new float[size];
CurrentGrid->vdata[i] = new float[vsize];
Printcell<<<1,1>>>(Grid_dev, i);//Print out element value of Grid_dev->cdata[i]
cudaDeviceSynchronize();
cudaMemcpy(CurrentGrid->cdata[i], Grid_dev->cdata[i], size*sizeof(float),\
cudaMemcpyDeviceToHost); //where error occurs
#if DEBUG_DEV
cudaCheckErrors("cudaMemcpy2 error");
#endif
printf("\nAfter copy cell data\n");
Print<<<1,1>>>(Grid_dev, i);
cudaDeviceSynchronize();
cudaMemcpy(CurrentGrid->vdata[i], Grid_dev->vdata[i], vsize*sizeof(float),\
cudaMemcpyDeviceToHost);
#if DEBUG_DEV
cudaCheckErrors("cudaMemcpy3 error");
#endif
}
cudaMemcpy(CurrentGrid->FieldType, Grid_dev->FieldType,\
NumberOfBaryonFields*sizeof(int), cudaMemcpyDeviceToHost);
#if DEBUG_DEV
cudaCheckErrors("cudaMemcpy4 error");
#endif
}
编辑:这是来自valgrind的信息,我正试图追踪内存泄漏的位置。
==19340== Warning: set address range perms: large range [0x800000000, 0xd00000000) (noaccess)
==19340== Warning: set address range perms: large range [0x200000000, 0x400000000) (noaccess)
==19340== Invalid read of size 8
==19340== at 0x402C79: CopyDataToHost(param_t, grid*, grid*) (CheckDevice.cu:48)
==19340== by 0x403646: CheckDevice(param_t, grid*, grid*) (CheckDevice.cu:186)
==19340== by 0x40A6CD: main (Transport.cu:81)
==19340== Address 0x2003000c0 is not stack'd, malloc'd or (recently) free'd
==19340==
==19340==
==19340== Process terminating with default action of signal 11 (SIGSEGV)
==19340== Bad permissions for mapped region at address 0x2003000C0
==19340== at 0x402C79: CopyDataToHost(param_t, grid*, grid*) (CheckDevice.cu:48)
==19340== by 0x403646: CheckDevice(param_t, grid*, grid*) (CheckDevice.cu:186)
==19340== by 0x40A6CD: main (Transport.cu:81)
==19340==
==19340== HEAP SUMMARY:
==19340== in use at exit: 2,611,365 bytes in 5,017 blocks
==19340== total heap usage: 5,879 allocs, 862 frees, 4,332,278 bytes allocated
==19340==
==19340== LEAK SUMMARY:
==19340== definitely lost: 0 bytes in 0 blocks
==19340== indirectly lost: 0 bytes in 0 blocks
==19340== possibly lost: 37,416 bytes in 274 blocks
==19340== still reachable: 2,573,949 bytes in 4,743 blocks
==19340== suppressed: 0 bytes in 0 blocks
==19340== Rerun with --leak-check=full to see details of leaked memory
==19340==
==19340== For counts of detected and suppressed errors, rerun with: -v
==19340== ERROR SUMMARY: 1 errors from 1 contexts (suppressed: 2 from 2)
答案 0 :(得分:18)
我相信我知道问题所在,但要确认一下,查看用于在设备上设置Grid_dev
类的代码会很有用。
当要在设备上使用类或其他数据结构时,该类中的指针指向内存中的其他对象或缓冲区(可能在设备内存中,对于将在设备上使用的类) ),然后使这个顶级类在设备上可用的过程变得更加复杂。
假设我有这样一个类:
class myclass{
int myval;
int *myptr;
}
我可以在主机上实例化上面的类,然后malloc
一个int
数组并将该指针指向myptr
,一切都会好的。要使此类仅在设备和设备上可用,过程可能类似。我可以:
myclass
myclass
的实例化对象复制到步骤1中的设备指针malloc
或new
为myptr
如果我从不想访问主机上为myptr
分配的存储空间,则上述顺序没问题。但如果我做希望从主机看到该存储,我需要一个不同的序列:
myclass
的设备内存的指针,让我们称之为mydevobj
myclass
的实例化对象从步骤1复制到设备指针mydevobj
myhostptr
int
存储设备myhostptr
myhostptr
的指针值从主机到设备指针&(mydevobj->myptr)
之后,您可以cudaMemcpy
嵌入指针myptr
指向cudaMalloc
myhostptr
)的数据mydevobj
请注意,在步骤5中,因为我正在获取此指针位置的地址,所以此cudaMemcpy操作仅需要主机上的myint
指针,该指针在cudaMemcpy操作中是有效的(仅限)。
然后将正确设置设备指针myint
的值以执行您尝试执行的操作。如果您希望cudaMemcpy数据进出myhostptr
到主机,则在任何cudaMemcpy调用中使用指针mydevobj->myptr
,不 mydevobj->myptr
。如果我们尝试使用mydevobj
,则需要解除引用myptr
,然后使用它来检索存储在mydevobj
中的指针,然后使用该指针作为到/来自位置的副本。这在主机代码中是不可接受的。如果你试图这样做,你会得到一个seg错误。 (请注意,通过类比,我的Grid_dev
就像您的myptr
,我的cdata
就像您的Grid_dev
总的来说,这是一个在第一次遇到它时需要仔细思考的概念,因此像这样的问题在SO上出现了一些频率。您可能希望研究其中一些问题以查看代码示例(因为您未提供设置{{1}}的代码):