张量流上分布式word2vec中大量浪费的RecvTensor ops

时间:2018-09-18 13:36:38

标签: python tensorflow distributed-computing word2vec

我正在尝试通过张量流训练word2vec模型。并发现有线盒 enter image description here

当前在官方文档中使用原始的基本实现。在RecvTensor操作中似乎没有很多逻辑计算,却浪费了很多时间。也许不是浪费?不确定...

起初我以为是因为ps(num_ps = 2)的数量少,但是发现当使用更多ps时,情况变得更糟,如下num_ps = 8 enter image description here

对此情况有任何建议或至少是原因吗?而且,确实需要一些帮助,以便在张量流拱上建立高效的word2vec模型。

谢谢

0 个答案:

没有答案