作为练习,我正在尝试在CUDA上实现基本设备阵列类型。它应该模仿std :: array接口作为设计目标。实施operator+
时,出现了非法的内存访问错误,无法解释原因。
这是代码。
#include <iostream>
#include <array>
enum class memcpy_t {
host_to_host,
host_to_device,
device_to_host,
device_to_device
};
bool check_cuda_err() {
cudaError_t err = cudaGetLastError();
if(err == cudaSuccess) {
return true;
}
else {
std::cerr << "Cuda Error: " << cudaGetErrorString(err) << "\n" << std::flush;
return false;
}
}
template <typename T, std::size_t N>
struct cuda_allocator {
using pointer = T*;
static void allocate(T *&dev_mem) {
cudaMalloc(&dev_mem, N * sizeof(T));
}
static void deallocate(T *dev_mem) {
cudaFree(dev_mem);
}
template <memcpy_t ct>
static void copy (T *dst, T *src) {
switch(ct) {
case memcpy_t::host_to_host:
cudaMemcpy(dst, src, N * sizeof(T), cudaMemcpyHostToHost);
break;
case memcpy_t::host_to_device:
cudaMemcpy(dst, src, N * sizeof(T), cudaMemcpyHostToDevice);
break;
case memcpy_t::device_to_host:
cudaMemcpy(dst, src, N * sizeof(T), cudaMemcpyDeviceToHost);
break;
case memcpy_t::device_to_device:
cudaMemcpy(dst, src, N * sizeof(T), cudaMemcpyDeviceToDevice);
break;
default:
break;
}
}
};
template <typename T, std::size_t N>
struct gpu_array {
using allocator = cuda_allocator<T, N>;
using pointer = typename allocator::pointer;
using value_type = T;
using iterator = T*;
using const_iterator = T const*;
gpu_array() {
allocator::allocate(data);
}
gpu_array(std::array<T, N> host_arr) {
allocator::allocate(data);
allocator::template copy<memcpy_t::host_to_device>(data, host_arr.begin());
}
gpu_array& operator=(gpu_array const& o) {
//allocator::allocate(data);
allocator::template copy<memcpy_t::device_to_device>(data, o.begin());
}
operator std::array<T, N>() {
std::array<T, N> res;
allocator::template copy<memcpy_t::device_to_host>(res.begin(), data);
return res;
}
~gpu_array() {
allocator::deallocate(data);
}
__device__ iterator begin() { return data; }
__device__ iterator end() { return data + N; }
__device__ const_iterator begin() const { return data; }
__device__ const_iterator end() const { return data + N; }
private:
T* data;
};
template <typename T, std::size_t N>
__global__ void add_kernel(gpu_array<T,N> **r,
gpu_array<T,N> const* a1,
gpu_array<T,N> const* a2) {
int i = blockIdx.x*blockDim.x + threadIdx.x;
printf("Index: %d\n", i);
(*r)->begin()[i] = a1->begin()[i] + a2->begin()[i];
}
template <typename T, std::size_t N>
gpu_array<T, N> operator+(gpu_array<T,N> const&a1,
gpu_array<T,N> const&a2)
{
gpu_array<T, N> *res = new gpu_array<T, N>;
add_kernel<<<(N+3)/4, 4>>>(&res, &a1, &a2);
cudaDeviceSynchronize();
check_cuda_err();
// ignore memory leak for now
return *res;
}
const int N = 1<<3;
int main() {
std::array<float, N> x,y;
for (int i = 0; i < N; i++) {
x[i] = 1.0f;
y[i] = 2.0f;
}
gpu_array<float, N> dx{x};
gpu_array<float, N> dy{y};
check_cuda_err(); // shows no error for memcpy
std::array<float, N> res = dx + dy;
for(const auto& elem : res) {
std::cout << elem << ", ";
}
}
我正在创建8号阵列来测试事物。如您所见,cuda_check_err()
从主机阵列初始化gpu_array
后没有显示错误。我猜复制数据工作正常。但是在内核中,当我为设备阵列建立索引时,我得到了illegal memory access
错误。输出如下:
索引:0
索引:1
索引:2
索引:3
索引:4
索引:5
索引:6
索引:7
Cuda错误:遇到非法的内存访问
9.45143e-39,0,6.39436e-39,0,0,0,0,0,
如您所见,我已经为每个线程打印了计算索引,似乎没有任何超出范围。那么,什么原因可能导致此非法内存访问错误?顺便说一下,cuda-memcheck
说:
大小为8的全局读取无效
及以后
地址0x7fff9f4c6ec0超出范围
但是我已经打印了索引,不知道为什么它超出范围。
答案 0 :(得分:2)
我们在此问题中看到了两个版本的代码,但不幸的是,两个版本都具有相同问题的不同版本。
第一个将引用用作内核的参数:
template <typename T, std::size_t N>
__global__ void add_kernel(gpu_array<T,N> &r,
gpu_array<T,N> const&a1,
gpu_array<T,N> const&a2) {
int i = blockIdx.x*blockDim.x + threadIdx.x;
printf("Index: %d\n", i);
r.begin()[i] = a1.begin()[i] + a2.begin()[i];
}
template <typename T, std::size_t N>
gpu_array<T, N> operator+(gpu_array<T,N> const&a1,
gpu_array<T,N> const&a2)
{
gpu_array<T, N> res;
add_kernel<<<(N+3)/4, 4>>>(res, a1, a2);
cudaDeviceSynchronize();
check_cuda_err();
return res;
}
虽然这是干净优雅的,并且CUDA内核代码中完全支持引用,但从主机通过引用传递内核参数最终会将主机地址作为设备中的参数,因为CUDA工具链与我所使用的所有其他C ++编译器一样意识到,使用指针实现引用。结果是内核运行时出现错误地址错误。
第二个方法使用指针间接寻址而不是引用,并且结束了将主机指针传递给GPU的工作,而该失败几乎与第一个版本相同:
template <typename T, std::size_t N>
__global__ void add_kernel(gpu_array<T,N> **r,
gpu_array<T,N> const* a1,
gpu_array<T,N> const* a2) {
int i = blockIdx.x*blockDim.x + threadIdx.x;
printf("Index: %d\n", i);
(*r)->begin()[i] = a1->begin()[i] + a2->begin()[i];
}
template <typename T, std::size_t N>
gpu_array<T, N> operator+(gpu_array<T,N> const&a1,
gpu_array<T,N> const&a2)
{
gpu_array<T, N> *res = new gpu_array<T, N>;
add_kernel<<<(N+3)/4, 4>>>(&res, &a1, &a2);
cudaDeviceSynchronize();
check_cuda_err();
// ignore memory leak for now
return *res;
}
将这种结构直接传递到设备内核的唯一安全实现是使用值传递。但是,这将意味着副本将超出范围并触发破坏,这将释放分配给数组的内存,并导致另一种意外错误。