我是否需要代码在keras 2 TF-gpu1.12中指定GPU上的计算。我了解到它们将自动使用GPU,但是

时间:2019-05-21 12:43:00

标签: python tensorflow keras

我的代码需要像resnet50,Unet这样的官方网络中的CPU。他们使用的CPU越多,每个时期越快。

  

服务器:
  GPU:Tesla K80,
  CPU:Intel(R)Xeon(R)CPU E5-2650 v3 @ 2.30GHz * 20,   内存:256G,
  CUDA9.0,
  TF-gpu 1.12
  Keras 2.2.4
  batch_size = 1

英特尔 CPU实用程序PID25512未使用data generator,而PID30777却使用6个多核内核进行了配置

PID25512输出:

  

第00048集:val_acc从0.53097没有提高   时代49/100   1370/1370 [==============================]-767s 560ms / step-损耗:0.3940-acc:0.6760-no_ground_accuracy :0.8272-val_loss:0.9408-val_acc:0.5238-val_no_ground_accuracy:0.6471

PID30777输出:

  

史诗6/100   1370/1370 [==============================]-2235s 2s / step-损耗:1.2565-acc:0.4641-no_ground_accuracy :0.5740-val_loss:2.2068-val_acc:0.3929-val_no_ground_accuracy:0.4994

CPU Util 这两个使用GPU。 GPU Util

所以,我的问题是,即使我有数据生成器,为什么CPU仍会受到限制?

我是深度学习的新手,我不知道每步2S是否正确。如果您有任何建议,将有所帮助和感激:D

如果您需要任何其他信息,请发表评论。谢谢

请帮助。

不仅我的自定义网络出现了,而且官方网络也出现了。

已解决
一个网络使用数据生成器,而另一个则不会导致这种情况。两者都带有数据生成器就很好了。 我认为这可能是CPU滥用引起的。

0 个答案:

没有答案