我读了distributed tensorflow example & instruction。正如本指令所建议的那样,tf.train.SyncReplicasOptimizer
可以帮助实现同步分布式培训。但是,tf.train.SyncReplicasOptimizer
需要优化器作为其第一个参数。 Tensorflow提供了一些优化器,例如tf.train.GradientDescentOptimizer
,tf.train.AdamOptimizer
等。
我想在分布式张量流环境中实现k-means算法(不使用任何优化器)与图之间和同步方式。在这种情况下,有没有办法实现图形和同步训练? (我们可以在不使用tf.train.SyncReplicasOptimizer
的情况下实现图之间同步培训吗?)