标签: tensorflow deep-learning
我正在尝试构建一个使用LSTM的模型(使用tensorflow)。我的训练样例不是太大 - 我只有大约500个例子。但是这些示例中的每一个都是2500的向量。每次我尝试训练模型时,我都会出现Out of Memory错误。我尝试使用小批量(32和64)的批处理来减小数据的大小,但OOM错误仍然存在。
当训练数据太宽时,人们会怎么做?
非常感谢!