我正在尝试使用统一内存来处理类,并使用内核调用在统一内存中传递和操作数组。我想通过引用传递所有内容。
所以我重写了类和数组的新方法,以便GPU可以访问它们,但我想我需要添加更多代码才能将数组放在统一内存中,但不太确定如何执行此操作。调用fillArray()方法时出现内存访问错误。
如果我必须进行这些类型的操作(对阵列进行算术和在不同大小的数组之间进行复制)数百次,统一内存是一种很好的方法,还是应该坚持在cpu和gpu内存之间手动复制?非常感谢你!
#include "cuda_runtime.h"
#include "device_launch_parameters.h"
#include <iostream>
#include <stdio.h>
#define TILE_WIDTH 4
#ifdef __CUDACC__
#define CUDA_CALLABLE_MEMBER __host__ __device__
#else
#define CUDA_CALLABLE_MEMBER
#endif
__global__ void add1(int height, int width, int *a, int *resultArray)
{
int w = blockIdx.x * blockDim.x + threadIdx.x; // Col // width
int h = blockIdx.y * blockDim.y + threadIdx.y;
int index = h * width + w;
if ((w < width) && (h < height))
resultArray[index] = a[index] + 1;
}
class Managed
{
public:
void *operator new(size_t len)
{
void *ptr;
cudaMallocManaged(&ptr, len);
return ptr;
}
void Managed::operator delete(void *ptr)
{
cudaFree(ptr);
}
void* operator new[] (size_t len) {
void *ptr;
cudaMallocManaged(&ptr, len);
return ptr;
}
void Managed::operator delete[] (void* ptr) {
cudaFree(ptr);
}
};
class testArray : public Managed
{
public:
testArray()
{
height = 16;
width = 8;
myArray = new int[height*width];
}
~testArray()
{
delete[] myArray;
}
CUDA_CALLABLE_MEMBER void runTest()
{
fillArray(myArray);
printArray(myArray);
dim3 dimGridWidth((width - 1) / TILE_WIDTH + 1, (height - 1)/TILE_WIDTH + 1, 1);
dim3 dimBlock(TILE_WIDTH, TILE_WIDTH, 1);
add1<<<dimGridWidth,dimBlock>>>(height, width, myArray, myArray);
cudaDeviceSynchronize();
printArray(myArray);
}
private:
int *myArray;
int height;
int width;
void fillArray(int *myArray)
{
for (int i = 0; i < height; i++){
for (int j = 0; j < width; j++)
myArray[i*width+j] = i*width+j;
}
}
void printArray(int *myArray)
{
for (int i = 0; i < height; i++){
for (int j = 0; j < width; j++)
printf("%i ",myArray[i*width+j]);
printf("\n");
}
}
};
int main()
{
testArray *test = new testArray;
test->runTest();
//testArray test;
//test.runTest();
system("pause");
return 0;
}
答案 0 :(得分:1)
我想通过引用传递所有内容,因此没有复制。
__global__ void add1(int height, int width, int *&a, int *&resultArray)
通过引用传递指针有一个用途:修改(重置)调用者范围内的指针。你不做的。因此,在这种情况下,引用是多余的。事实上,这是一种悲观,因为你引入了另一层次的间接。请改用以下签名:
__global__ void add1(int height, int width, int* a, int* resultArray)
这编译并运行,但似乎+1操作永远不会发生。这是为什么?
我知道我应该捕获错误语句,这段代码只是一个简单的例子。
嗯,这真的很不幸,因为添加正确的错误检查可能会帮助您找到错误。将来,请考虑在询问SO之前添加错误检查。
您的内核希望其参数位于可以访问的地址空间中。这意味着它必须是通过调用任何cudaMalloc
变体获得的指针。
但是你在路过什么?
myArray = new int[height*width]; // Not a cudaMalloc* variant
[...]
add1<<<dimGridWidth,dimBlock>>>(height, width, myArray, myArray);
因此,传递给内核的指针没有任何意义,因为它不在&#34; CUDA地址空间中#34;。您的内核可能会立即发生段错误。
我认为您的混淆可能源于myArray
(testArray
)的封闭类继承自Managed
。这意味着new testArray
会在GPU可访问的地址空间中分配testArray
,但这并不意味着在该类成员上使用operator new
将在该地址空间中分配它们,太。它们也需要通过cudaMalloc*
进行分配(例如,虽然不是必需的,但是通过重载的operator new
将分配转发到cudaMallocManaged
)。一个简单的解决方案是不使用new
分配您的数组,但是这样:
cudaMallocManaged(&myArray, width * height* sizeof(*myArray));
将delete
的相应来电替换为cudaFree
。
此外:
testArray test;
这不会在GPU可访问空间上分配test
,因为它不是通过operator new
分配的。