Tensorflow增加批处理大小而不增加内存消耗? (存储渐变?)

时间:2019-10-12 08:16:15

标签: python tensorflow

我正在基于TF example

使用多GPU模型

问题在于,尽管它可以工作,但仍然仅限于我GPU拥有的内存大小,每批只有4个(每个GPU 2个)样本。
有没有办法表示多个GPU运行之间的梯度?
即通过运行2个4个样本的小批量两次来制作8个样本的批次?这样模型的“大小”就不会增加?

0 个答案:

没有答案