如何在tensorflow中跨多个设备分布层?

时间:2016-10-25 03:46:47

标签: parallel-processing tensorflow distributed

如何在多个设备之间分配计算(计算梯度,应用渐变)以实现模型并行?

我已设法通过设置minimize(colocate_gradients_with_ops=True)来分发变量,但我不确定它是否足以正确获得模型并行性。

0 个答案:

没有答案