标签: parallel-processing tensorflow distributed
我的张量流模型太大而无法放入单个TITAN X GPU中。但我可以访问4个这样的GPU。 tensorflow是否支持模型并行训练范例,其中不同的GPU正在训练同一网络的不同层?
如果是这样,我在哪里可以找到帮助我这样做的资源?