来自来宾VM的CUDA内核在NVIDIA GRID vGPU上的行为

时间:2016-03-02 13:39:45

标签: cuda nvidia

有些时候,NVIDIA引入了利用其GRID GPU的vGPU概念,其中物理GPU被虚拟化为多个vGPU,每个vGPU都分配给客户VM。 虽然GRID文档在内存分离方面非常明确,但尚不清楚来自guestVM的内核如何在主硬件上执行。

其中一个表(表1)中的网格数据表提到了CUDA核心(时间分片共享)。这是否意味着源自一个来宾VM的CUDA内核捕获整个GPU的时间片,然后来自其他VM的内核?

参考GRID数据表:http://images.nvidia.com/content/pdf/grid/whitepaper/NVIDIA-GRID-WHITEPAPER-vGPU-Delivering-Scalable-Graphics-Rich-Virtual-Desktops.pdf

1 个答案:

答案 0 :(得分:2)

目前,无法使用源自使用GRID vGPU的VM的CUDA操作,但有一个例外。

如果使用的GRID(2.0)配置文件是将整个物理GPU映射到单个VM的配置文件,则在这种情况下可以进行CUDA操作。在这种情况下,一般的CUDA行为应该类似于裸机操作。

目前,此类行为确实涉及图形操作和CUDA操作之间的时间切片(“上下文切换”),这与裸机场景中的行为相同。

将来可能会发生变化。

请注意,此处的“物理GPU”指的是完整的逻辑GPU设备。例如,Tesla M60在板上有两个这样的“物理GPU”(每个具有8GB内存),因此可以支持两个这样的VM,其中所选择的GRID配置文件规定整个物理GPU映射到单个VM

可以找到对此行为的引用here

  

但是应该注意的是,这里存在一些限制,NVIDIA注意到CUDA vGPU支持需要使用GRID 2.0“8GB配置文件”。