我有2种不同的模型,我想通过将这些模型分别加载到不同的GPU来训练多任务。我认为这就是所谓的模型并行性。例如,一个模型大约为8GB,另一个模型为12GB,我使用以下代码将模型加载到相应的设备上,但是它不起作用,tensorflow试图将整个模型加载到同一GPU(具有2个RTX Titan的PC中) 24GB)。这是名称范围的问题吗?
with tf.device('/device:GPU:0'):
model_1 = K.models.load_model(model_path2)
with tf.device('/device:GPU:1'):
model_2 = K.models.load_model(model_path2)
有人知道如何将多个模型加载到不同的GPU吗?