我安装了Tensorflow 1.4 GPU版本。它成功检测到我的GPU并在进行训练和评估时使用它。我有GeForce 1050Ti和4Gb内存。
但我无法达到高于12-15%的GPU负载(通常为5-6%)。与此同时,我获得了高CPU负载和相当慢的培训过程。 我用普通的Tensorflow测试了很多不同NN(RNN,LSTM,CNN,GAN等)的不同例子,用TF作为后端测试了Keras,结果是一样的。
我发现增加批量大小有助于更多地加载GPU,但批量大小也会影响培训本身,因此我无法将其增加到超过某些可能的限制。
那么如何在最大负载下使用GPU并加速NN培训呢?
答案 0 :(得分:0)
如果您在ubuntu中使用Keras,则可以使用多处理并增加 workers 的数量。如果使用批处理生成器,则可以根据系统RAM来增加顺序限制。
model.fit_generator(..., max_queue_size = 24, ..., workers = 2, use_multiprocessing = True, ...)