CUDA中常量内存的动态分配

时间:2008-11-07 04:57:35

标签: memory dynamic-data cuda constants nvidia

我正在尝试利用常量内存,但我很难搞清楚如何嵌套数组。我所拥有的是一系列数据,这些数据包含内部数据,但每个条目的数据都不同。所以基于以下简化代码我有两个问题。首先,我不知道如何分配我的数据结构成员指向的数据。其次,因为我不能将cudaGetSymbolAddress用于常量内存,所以我不确定是否可以只传递全局指针(你无法使用普通的__device__内存)。


struct __align(16)__ data{
int nFiles;
int nNames;
int* files;
int* names;
};

__device__ __constant__ data *mydata;

__host__ void initMemory(...)
{
    cudaMalloc( (void **) &(mydata), sizeof(data)*dynamicsize );
    for(int i=; i lessthan dynamicsize; i++)
    {
        cudaMemcpyToSymbol(mydata, &(nFiles[i]), sizeof(int), sizeof(data)*i, cudaMemcpyHostToDevice);
        //...
        //Problem 1: Allocate & Set mydata[i].files
    }
}

__global__ void myKernel(data *constDataPtr)
{
    //Problem 2: Access constDataPtr[n].files, etc
}

int main()
{
    //...
    myKernel grid, threads (mydata);
}

感谢您提供的任何帮助。 : - )

4 个答案:

答案 0 :(得分:2)

我认为常量内存为64K,您无法使用CudaMalloc动态分配它。它必须被声明为常数,比如说,

__device__ __constant__ data mydata[100];

同样,您也不需要释放它。此外,您不应该通过指针传递对它的引用,只需将其作为全局变量访问。我尝试做类似的事情,它给了我segfault(在devicemu中)。

答案 1 :(得分:2)

答案 2 :(得分:1)

不,你不能这样做。

常量内存(最大64KB)只能在编译前进行硬编码。

但是,您可以动态分配纹理内存,该内存也会缓存在设备上。

答案 3 :(得分:0)

为什么不使用所谓的“打包”数据表示?此方法允许您将所需的所有数据放入一维字节数组中。例如,如果您需要存储

struct data
{
    int nFiles;
    int nNames;
    int* files;
    int* names;
}

您可以通过以下方式将此数据存储在数组中:

[struct data (7*4=28 bytes)
    [int nFiles=3 (4 bytes)]
    [int nNames=2 (4 bytes)]
    [file0 (4 bytes)]
    [file1 (4 bytes)]
    [file2 (4 bytes)]
    [name0 (4 bytes)]
    [name1 (4 bytes)]
]