为什么全局内存分配成功而其大小超过GPU的限制?

时间:2018-08-14 15:47:26

标签: opencl gpu gpgpu imx6

我正在试验Vivante GPU GC2000系列,其中clinfo产生了以下结果。

 CL_DEVICE_GLOBAL_MEM_SIZE:             64 MByte
 CL_DEVICE_MAX_MEM_ALLOC_SIZE:          32 MByte
 CL_DEVICE_GLOBAL_MEM_CACHE_TYPE:       Read/Write
 CL_DEVICE_GLOBAL_MEM_CACHELINE_SIZE:       64
 CL_DEVICE_GLOBAL_MEM_CACHE_SIZE:       4096
 CL_DEVICE_LOCAL_MEM_SIZE:          1 KByte
 CL_DEVICE_LOCAL_MEM_TYPE:          Global
 CL_DEVICE_MAX_CONSTANT_BUFFER_SIZE:        4 KByte
 CL_DEVICE_MAX_CONSTANT_ARGS:           9

从上面的输出中可以明显看出,64 MB是全局内存分配的限制。

现在,当我尝试分配900Mbytes的全局大小时,我没有收到任何错误,并且成功。

int noOfBytes = (900 * 1024 * 1024);
memPtr = clCreateBuffer(context, CL_MEM_READ_WRITE, noOfBytes, NULL, &err);
 if ( err != CL_SUCESS) {
    printf ("Ooops.. Failed");
  }

听起来这个实验证明了clinfo的主张。我是否缺少任何理论或其他东西?

1 个答案:

答案 0 :(得分:4)

由于缓冲区和图像是在OpenCL 上下文(而不是OpenCL 设备)上分配的,因此实际的设备分配通常会推迟到缓冲区在特定设备上使用之前。因此,尽管这种分配似乎有效,但是如果您尝试在设备上实际使用该缓冲区,则会收到错误消息。