有些时候,NVIDIA引入了利用其GRID GPU的vGPU概念,其中物理GPU被虚拟化为多个vGPU,每个vGPU都分配给客户VM。 虽然GRID文档在内存分离方面非常明确,但尚不清楚来自guestVM的内核如何在主硬件上执行。
其中一个表(表1)中的网格数据表提到了CUDA核心(时间分片共享)。这是否意味着源自一个来宾VM的CUDA内核捕获整个GPU的时间片,然后来自其他VM的内核?
答案 0 :(得分:2)
目前,无法使用源自使用GRID vGPU的VM的CUDA操作,但有一个例外。
如果使用的GRID(2.0)配置文件是将整个物理GPU映射到单个VM的配置文件,则在这种情况下可以进行CUDA操作。在这种情况下,一般的CUDA行为应该类似于裸机操作。
目前,此类行为确实涉及图形操作和CUDA操作之间的时间切片(“上下文切换”),这与裸机场景中的行为相同。
将来可能会发生变化。
请注意,此处的“物理GPU”指的是完整的逻辑GPU设备。例如,Tesla M60在板上有两个这样的“物理GPU”(每个具有8GB内存),因此可以支持两个这样的VM,其中所选择的GRID配置文件规定整个物理GPU映射到单个VM
可以找到对此行为的引用here:
但是应该注意的是,这里存在一些限制,NVIDIA注意到CUDA vGPU支持需要使用GRID 2.0“8GB配置文件”。