为什么使用分布式Tensorflow实现时每个工作节点都有不同的结果?

时间:2018-06-28 06:00:03

标签: tensorflow

所以我在集群中运行了这个分布式Tensorflow代码。我在这里调整了一些行:https://github.com/ischlag/distributed-tensorflow-example/blob/master/example.py,并实现了3倍交叉验证。

我只是想知道Tensorflow数据并行性的实现(上面的github代码中的afaik,是并行性的类型)是否意味着每个工作者节点在训练/测试结束时会有不同的结果?我使用分布式Tensorflow用DNN编写了一个简单的回归模型,这使我想知道为什么尽管共享初始值相同的种子,但在训练/测试结束时我的工作节点却具有不同的RMSE值。

希望您能帮我解决这个问题!谢谢!

0 个答案:

没有答案