深度学习:数据过于宽泛的内存不足错误

时间:2017-04-18 16:02:15

标签: tensorflow deep-learning

我正在尝试构建一个使用LSTM的模型(使用tensorflow)。我的训练样例不是太大 - 我只有大约500个例子。但是这些示例中的每一个都是2500的向量。每次我尝试训练模型时,我都会出现Out of Memory错误。我尝试使用小批量(32和64)的批处理来减小数据的大小,但OOM错误仍然存​​在。

当训练数据太宽时,人们会怎么做?

非常感谢!

0 个答案:

没有答案