标签: tensorflow gpu tensorflow-serving tensorflow-datasets
我正在尝试在分布式张量流上进行模型并行处理。问题是我需要每个节点在每次迭代时都具有相同的批处理数据。而且该系统实际上是接收输入数据的远程节点的瓶颈。有什么解决办法吗?