如何在图形复制培训之间共享tf.Variable?

时间:2016-10-17 16:03:44

标签: tensorflow

我阅读了分布式TensorFlow的文档,并对图之间的复制提出了疑问。 https://www.tensorflow.org/versions/master/how_tos/distributed/index.html

在我的理解中,图形间复制培训创建了与工作者相同数量的图形,并且图形在参数服务器上共享tf.Variables。 也就是说,一个工作人员创建一个会话和一个图表,并且所有图表共享相同的tf.Variable

但是,我只是认为两个不同的会话不能共享相同的tf.Variable。 这是误会吗?

1 个答案:

答案 0 :(得分:2)

关于你的上一个问题:

"两个不同的会话可以共享相同的tf.Variable吗?"

  1. 对于分布式会话(例如Session(" grpc://..")),他们可以。
  2. 对于直接会话,他们不能
  3. 在分布式培训中,变量由tf.Server()管理,跨会话持久化。记得?服务器在会话之前创建。它的寿命比tf.Sessions长。