多GPU服务器上的多个CUDA程序资源分配

时间:2017-05-15 04:45:14

标签: cuda multiprocessing multi-gpu

因此,我目前正在寻求使用CUDA代码购买用于复杂数值计算的服务器。总之,我试图决定是否要花钱购买多个GPU。

我知道在CUDA 4.0中,使用单个CUDA代码的多GPU计算已经可用,如here中所述。

但是,让我们忽略这个好处。我们假设我正在使用两个GPU的服务器上工作。我(人员A)运行标准CUDA代码而不设置设备。据推测,我会将GPU中的一个占用一段时间。现在让我们说服务器上的其他人(人员B)也可以运行他们自己的CUDA代码(也没有设置要使用的设备)。如果Person B只是运行他们的CUDA程序,他们的代码是否会在空闲的GPU服务器上运行,或者他们的代码在GPU上的执行是否会被阻止,直到我的代码完成为止?

0 个答案:

没有答案