标签: python tensorflow distributed-computing word2vec
我正在尝试通过张量流训练word2vec模型。并发现有线盒
当前在官方文档中使用原始的基本实现。在RecvTensor操作中似乎没有很多逻辑计算,却浪费了很多时间。也许不是浪费?不确定...
起初我以为是因为ps(num_ps = 2)的数量少,但是发现当使用更多ps时,情况变得更糟,如下num_ps = 8
对此情况有任何建议或至少是原因吗?而且,确实需要一些帮助,以便在张量流拱上建立高效的word2vec模型。
谢谢