如何在Tensorflow中使用keras在2个GPU之间拆分模型?

时间:2019-05-24 23:47:16

标签: python tensorflow keras

本质上,我正在寻找类似with tf.device('/device:GPU:0'的喀拉拉邦。我想将操作放在不同的GPU上。我正在使用

行的顺序模型
...
model.compile(optimizer='adam', 
                  loss='sparse_categorical_crossentropy',
                  metrics=['accuracy'])
...

model.fit(train_images, train_labels, epochs=5)

1 个答案:

答案 0 :(得分:0)

可能您可以使用with K.tf.device('/gpu:1'):作为上下文。或者,如果后端是tensorflow,那么在tf中分配gpu的方式也应该适用于keras。