标签: python tensorflow
我正在基于TF example
问题在于,尽管它可以工作,但仍然仅限于我GPU拥有的内存大小,每批只有4个(每个GPU 2个)样本。 有没有办法表示多个GPU运行之间的梯度? 即通过运行2个4个样本的小批量两次来制作8个样本的批次?这样模型的“大小”就不会增加?