如何编程keras或tensorflow来分割多GPU上的训练,让我们假设你在一个拥有8个GPU的amaozn ec2实例中,你想要使用它们来加快训练速度,但是你的代码只适用于单个cpu或GPU?
答案 0 :(得分:2)
是的,可以在多个GPU上运行Keras型号。这只能通过TensorFlow后端暂时实现,因为Theano功能仍然相当新。我们期待在不久的将来在Theano中添加对多GPU的支持(它应该相当简单)。
使用TensorFlow后端,您可以像在纯TensorFlow中一样实现此目的:在定义Keras图层时使用with tf.device(d)作用域。
最初来自here