0、1和2个GPU的意外运行时间

时间:2019-08-30 00:03:51

标签: tensorflow multi-gpu

我在两个系统上尝试tensorflow's cifar10-estimator model来评估其GPU性能。配置为:

  • PC#1是较旧的系统,带有1个GTX 1080 Ti GPU,并且是配置了Tensorflow 1.12.2,Cuda Toolkit 9.0.176,CuDNN 7.3.0和Nvidia显示驱动程序385.54的Windows 10操作系统。 Python版本是3.6.5。
  • PC#2是带有2个RTX 2080 Ti GPU的较新系统,并且是使用Tensorflow 1.14.0,Cuda Toolkit 10.0.130,CuDNN 7.6.3,Nvidia显示驱动程序430.34和Python版本配置的Unix Centos 7操作系统。 2.7.5。

我按照上面链接的自述页面中指定的说明和命令详细信息进行操作。仅对于cpu设置(--num_gpus = 0),对于PC#1,训练速度从大约26个示例/秒开始,但是对于PC#2,仅9个示例/秒(这是有问题的)。对于一个GPU设置(--num_gpus = 1),最后的训练速度(1000步)对于PC#1是1940个示例/秒,对于PC#2是2400个示例/秒(很好!)。但是对于两个GPU(仅在PC#2上进行了测试),性能与一个GPU(我没想到的)大致相同。

是否有任何指南或解释来理解差异并可能解决问题?

0 个答案:

没有答案