Tensorflow PS设备选择问题

时间:2017-07-05 08:57:47

标签: python tensorflow distributed

我正在研究张量流, 我正在考虑为PS选择适应性设备的算法 通过每个工人的效率和网络带宽等。

今天,我在张量流主页上找到了一个性能指南 https://www.tensorflow.org/performance/performance_guide 所以在这个页面中,他们说“在GPU上放置共享参数”正在提高性能。

但是,我不知道,为什么性能会提高。

所以这是我的问题。 您如何看待分布式张量流中PS的器件选择思路? 如果在异构机器学习环境中需要很多设备,我认为它会很好,你怎么看?

和“在GPU上放置共享参数”这是什么意思?

0 个答案:

没有答案