标签: keras gpu
我正在使用由多个用户共享的计算机。该机器具有多个GPU。
我试图了解如何确保一个用户训练执行不会干扰另一个用户执行的另一次运行。具体来说,请确保执行跑步时分配的GPU不会是已经在使用的GPU。
后端都是Pytorch和Keras,这是默认行为吗?如果不是这样,我如何确保一切和谐进行?
谢谢!