我阅读了分布式TensorFlow的文档,并对图之间的复制提出了疑问。 https://www.tensorflow.org/versions/master/how_tos/distributed/index.html
在我的理解中,图形间复制培训创建了与工作者相同数量的图形,并且图形在参数服务器上共享tf.Variables
。
也就是说,一个工作人员创建一个会话和一个图表,并且所有图表共享相同的tf.Variable
。
但是,我只是认为两个不同的会话不能共享相同的tf.Variable
。
这是误会吗?
答案 0 :(得分:2)
关于你的上一个问题:
"两个不同的会话可以共享相同的tf.Variable吗?"
在分布式培训中,变量由tf.Server()管理,跨会话持久化。记得?服务器在会话之前创建。它的寿命比tf.Sessions长。