本质上,我正在寻找类似with tf.device('/device:GPU:0'
的喀拉拉邦。我想将操作放在不同的GPU上。我正在使用
...
model.compile(optimizer='adam',
loss='sparse_categorical_crossentropy',
metrics=['accuracy'])
...
model.fit(train_images, train_labels, epochs=5)
答案 0 :(得分:0)
可能您可以使用with K.tf.device('/gpu:1'):
作为上下文。或者,如果后端是tensorflow,那么在tf中分配gpu的方式也应该适用于keras。