Tensorflow CPU内存问题(分配超出系统内存的10%)

时间:2018-12-05 19:00:39

标签: python tensorflow memory keras cpu

我使用Keras / Tensorflow在python中创建了一个程序。我的数据创建和培训没有任何问题。但是,当我要评估我的模型时,出现以下错误:

Using TensorFlow backend.
WARNING:tensorflow:From /usr/local/lib/python3.6/dist-packages/keras/backend/tensorflow_backend.py:4213: sparse_to_dense (from tensorflow.python.ops.sparse_ops) is deprecated and will be removed in a future version.
Instructions for updating:
Create a `tf.sparse.SparseTensor` and use `tf.sparse.to_dense` instead.
2018-12-05 19:20:44.932780: W tensorflow/core/framework/allocator.cc:122] Allocation of 3359939800 exceeds 10% of system memory.
terminate called after throwing an instance of 'std::bad_alloc'
  what():  std::bad_alloc
Abandon (core dumped)

这似乎是内存分配问题。我减小了模型的大小,并减小了所有参数,但没有任何改变。我不知道如何解决这个问题。

1 个答案:

答案 0 :(得分:0)

根据我的经验,此类问题的常见原因是我们在训练中使用了合理的批次大小,但在评估时尝试使用更大的批次大小(通常是整个数据集)。

我发现自己做这种事情是错误的:

model.fit(x_train, y_train, epochs=5, batch_size=10)
model.evaluate(x_test, y_test)

我们确实需要这样做:

model.fit(x_train, y_train, epochs=5, batch_size=10)
model.evaluate(x_test, y_test, batch_size=10)