我想在Cloud ML上使用多个GPU运行Tensorflow应用程序。
我的Tensorflow应用程序是用非分布式范例编写的,概述为here
根据我的理解,如果我想使用Cloud ML运行同一个应用程序,使用多个GPU,那么应用程序必须使用比例层CUSTOM,我需要设置参数服务器,工作服务器似乎是分布式张量流范例。 Link here
这是在Cloud ML上运行多个GPU培训作业的唯一方法吗?
是否有指南帮助我将我的multiGPU(基于塔式)培训应用程序所需的更改范围扩展到分布式张量流应用程序?
答案 0 :(得分:1)
您可以将CUSTOM层仅与一个主节点配合使用,而不使用工作人员/参数服务器。这些是可选参数。
然后complex_model_m_gpu
有4个GPU,complex_model_l_gpu
有8个。