上下文
我在桌面计算机(tensorflow-gpu 1.2
,cuda v 8.0.44
,GPU GTX 1080
)上创建了tensorflow中的Hierarchical RNN,然后决定在Google Cloud Platform(计算引擎)上进行相当纯粹的培训设置(2x Tesla K80
,nvidia-docker
,gcr.io/tensorflow/tensorflow:latest-gpu-py3
图片,cuda v 8.0.61
)。
两个模型的代码完全相同。
问题: 易失性GPU工具。两种情况都有很大不同:
我真正感兴趣的是时间轴跟踪非常不同 - 在GTX 1080上没有MEMCPYHtoD
或MEMCPYDtoH
操作,而它们存在于GCP CE实例上,尽管设置大致相同。 / p>
时间轴中的HtoD表明某些GPU操作系统没有本机GPU实现。
,但为什么桌面上没有HtoD?
我想知道在GCE上使用/缩放张量流模型有什么特别之处?
时间轴GTX 1080 (桌面)
时间线特斯拉K80 (GCE)