Google Cloud ML是否仅支持针对多GPU培训作业的分布式Tensorflow?

时间:2017-10-06 23:41:33

标签: tensorflow tensorflow-gpu google-cloud-ml google-cloud-ml-engine

我想在Cloud ML上使用多个GPU运行Tensorflow应用程序。

我的Tensorflow应用程序是用非分布式范例编写的,概述为here

根据我的理解,如果我想使用Cloud ML运行同一个应用程序,使用多个GPU,那么应用程序必须使用比例层CUSTOM,我需要设置参数服务器,工作服务器似乎是分布式张量流范例。 Link here

这是在Cloud ML上运行多个GPU培训作业的唯一方法吗?

是否有指南帮助我将我的multiGPU(基于塔式)培训应用程序所需的更改范围扩展到分布式张量流应用程序?

1 个答案:

答案 0 :(得分:1)

您可以将CUSTOM层仅与一个主节点配合使用,而不使用工作人员/参数服务器。这些是可选参数。

然后complex_model_m_gpu有4个GPU,complex_model_l_gpu有8个。