CUDA:将统一内存与类和数组一起使用

时间:2015-01-28 03:14:02

标签: c++ arrays class memory cuda

我正在尝试使用统一内存来处理类,并使用内核调用在统一内存中传递和操作数组。我想通过引用传递所有内容。

所以我重写了类和数组的新方法,以便GPU可以访问它们,但我想我需要添加更多代码才能将数组放在统一内存中,但不太确定如何执行此操作。调用fillArray()方法时出现内存访问错误。

如果我必须进行这些类型的操作(对阵列进行算术和在不同大小的数组之间进行复制)数百次,统一内存是一种很好的方法,还是应该坚持在cpu和gpu内存之间手动复制?非常感谢你!

#include "cuda_runtime.h"
#include "device_launch_parameters.h"

#include <iostream>
#include <stdio.h>


#define TILE_WIDTH 4

#ifdef __CUDACC__
#define CUDA_CALLABLE_MEMBER __host__ __device__
#else
#define CUDA_CALLABLE_MEMBER
#endif

__global__ void add1(int height, int width, int *a, int *resultArray)
{
    int w = blockIdx.x * blockDim.x + threadIdx.x; // Col // width
    int h = blockIdx.y * blockDim.y + threadIdx.y;
    int index = h * width + w;

    if ((w < width) && (h < height))
        resultArray[index] = a[index] + 1;
}

class Managed 
{
public:
    void *operator new(size_t len) 
    {
        void *ptr;
        cudaMallocManaged(&ptr, len);
        return ptr;
    }

    void Managed::operator delete(void *ptr) 
    {
        cudaFree(ptr);
    }

    void* operator new[] (size_t len) {
        void *ptr; 
        cudaMallocManaged(&ptr, len);
        return ptr;
    }
        void Managed::operator delete[] (void* ptr) {
        cudaFree(ptr);
    }
};

class testArray : public Managed
{
public: 
    testArray()
    {
        height = 16;
        width = 8;
        myArray = new int[height*width];
    }
    ~testArray()
    {
        delete[] myArray;
    }

    CUDA_CALLABLE_MEMBER void runTest()
    {
        fillArray(myArray);
        printArray(myArray);

        dim3 dimGridWidth((width - 1) / TILE_WIDTH + 1, (height - 1)/TILE_WIDTH + 1, 1);
        dim3 dimBlock(TILE_WIDTH, TILE_WIDTH, 1);

        add1<<<dimGridWidth,dimBlock>>>(height, width, myArray, myArray);
        cudaDeviceSynchronize();
        printArray(myArray);
    }

private:

    int *myArray;
    int height; 
    int width;

    void fillArray(int *myArray)
    {
        for (int i = 0; i < height; i++){
            for (int j = 0; j < width; j++)
                myArray[i*width+j] = i*width+j;
        }
    }

    void printArray(int *myArray)
    {
        for (int i = 0; i < height; i++){
            for (int j = 0; j < width; j++)
                printf("%i ",myArray[i*width+j]);
            printf("\n");
        }
    }
};

int main()
{
    testArray *test = new testArray;
    test->runTest();

    //testArray test;
    //test.runTest();

    system("pause");
    return 0;
}

1 个答案:

答案 0 :(得分:1)

  

我想通过引用传递所有内容,因此没有复制。

__global__ void add1(int height, int width, int *&a, int *&resultArray)

通过引用传递指针有一个用途:修改(重置)调用者范围内的指针。你不做的。因此,在这种情况下,引用是多余的。事实上,这是一种悲观,因为你引入了另一层次的间接。请改用以下签名:

__global__ void add1(int height, int width, int* a, int* resultArray)

  

这编译并运行,但似乎+1操作永远不会发生。这是为什么?

     

我知道我应该捕获错误语句,这段代码只是一个简单的例子。

嗯,这真的很不幸,因为添加正确的错误检查可能会帮助您找到错误。将来,请考虑在询问SO之前添加错误检查。

您的内核希望其参数位于可以访问的地址空间中。这意味着它必须是通过调用任何cudaMalloc变体获得的指针。

但是你在路过什么?

myArray = new int[height*width]; // Not a cudaMalloc* variant
[...]
add1<<<dimGridWidth,dimBlock>>>(height, width, myArray, myArray);

因此,传递给内核的指针没有任何意义,因为它不在&#34; CUDA地址空间中#34;。您的内核可能会立即发生段错误。


我认为您的混淆可能源于myArraytestArray)的封闭类继承自Managed。这意味着new testArray会在GPU可访问的地址空间中分配testArray,但这并不意味着在该类成员上使用operator new将在该地址空间中分配它们,太。它们也需要通过cudaMalloc*进行分配(例如,虽然不是必需的,但是通过重载的operator new将分配转发到cudaMallocManaged)。一个简单的解决方案是不使用new分配您的数组,但是这样:

cudaMallocManaged(&myArray, width * height* sizeof(*myArray));

delete的相应来电替换为cudaFree

此外:

testArray test;

这不会在GPU可访问空间上分配test,因为它不是通过operator new分配的。