分布式Tensorflow:如何在不使用tf.train.SyncReplicasOptimizer的情况下实现图之间的同步训练

时间:2016-08-09 22:37:57

标签: opencv tensorflow

我读了distributed tensorflow example & instruction。正如本指令所建议的那样,tf.train.SyncReplicasOptimizer可以帮助实现同步分布式培训。但是,tf.train.SyncReplicasOptimizer需要优化器作为其第一个参数。 Tensorflow提供了一些优化器,例如tf.train.GradientDescentOptimizertf.train.AdamOptimizer等。

我想在分布式张量流环境中实现k-means算法(使用任何优化器)与图之间和同步方式。在这种情况下,有没有办法实现图形和同步训练? (我们可以在不使用tf.train.SyncReplicasOptimizer的情况下实现图之间同步培训吗?)

0 个答案:

没有答案