资源耗尽:分配带有shape [32,128,768]的张量并在/ job:localhost /副本:0 / task:0 / device:GPU:0上键入float时,OOM

时间:2020-04-18 04:51:37

标签: python-3.x tensorflow out-of-memory cudnn

几个星期后,我一直收到此错误。 我尝试了在类似问题中找到的一些建议,例如

  1. 将培训和测试的批次大小减少到1
  2. 减小数据大小
  3. 使用kill -9 pid
  4. 通过设置os.environ['CUDA_VISIBLE_DEVICES'] = '0,2'
  5. 使用多个GPU
  6. 减少了LSTM模型的输出神经元数量
  7. 添加gpu_options = tf.GPUOptions(allow_growth=True) session = tf.InteractiveSession(config=tf.ConfigProto(gpu_options=gpu_options))
  8. 使用模型后添加del model
  9. 添加k.clear_session()。我不确定我是否正确使用了这一特定工具。

它们都不起作用。

还有其他建议吗?请帮忙。 张量形状在不同的行程和不同的错误消息中发生变化,但错误消息保持不变。

我正在使用Python3.7,tensorflow-gpu == 1.14,CuDNN = 7.6.5,CUDA == 10.0。

0 个答案:

没有答案