使用GPU时如何提高Keras中的循环运行速度

时间:2018-12-07 02:47:41

标签: tensorflow keras

我正在使用Tensorflow后端和安装在Linux操作系统中的GPU在Keras中训练LSTM模型。该模型的批处理大小为75。训练大小为600,测试大小为150。由于模型是有状态的,因此我正在使用for循环训练模型。但是,当纪元数很高时,要花费很长时间进行训练。培训大约需要300微秒,测试大约需要300微秒。要完成1000个训练时期的整个周期,需要花费很长时间。有什么方法可以减少整体培训时间?

 75/600 [==>...........................] - ETA: 0s
300/600 [==============>...............] - ETA: 0s
525/600 [=========================>....] - ETA: 0s
600/600 [==============================] - 0s 332us/step

 75/150 [==============>...............] - ETA: 0s
150/150 [==============================] - 0s 328us/step

0 个答案:

没有答案