我正在使用Tensorflow,我在下面遇到了一个问题:
我的模型中有一个巨大的张量,其大小比其他大约100倍。我知道参数是循环存储的,但我的理解是单个张量属于单参数服务器,这个巨大的张量可能成为瓶颈。
是否可以在多个参数服务器上拆分那个巨大的张量?
答案 0 :(得分:1)
我发现我可以将分区器用于张量流变量,以便可以在多个参数服务器上对张量进行分片。
https://www.tensorflow.org/api_guides/python/state_ops#Variable_Partitioners_for_Sharding