我正在为VGG16模型带来瓶颈。我有很多数据,并且正在使用6个GPU。从Keras 2.0.9开始,使用多个GPU进行训练似乎很简单。我尝试运行multi_gpu_model(model, gpus=6)
然后运行predict_generator
。虽然我的程序显示在每个GPU上运行(使用nvidia-smi),但它似乎是在CPU上生成的。有没有办法让我在多个GPU上轻松运行predict_generator? (虽然我有一种不好的感觉,我不得不重写我自己的multi_gpu_model版本),如果我要自己实现这个,那么最好的办法是为每个运行的GPU创建一个线程单独批次上的predict_generator
?
对不起如果我错过了一些明显的东西。