Google Colab内存不足

时间:2020-08-14 06:30:42

标签: tensorflow google-colaboratory

我是深度学习和TensorFlow的新手。我正在实现paper,即Seq2Seq模型。 这样的模型架构: 编码器:

  1. 嵌入层
  2. 两个双向层堆叠在一起,每层隐藏512个单位

全球关注

两个不同的解码器,具有512个隐藏单元。

时间步长为1400。

批处理大小为64。

我使用Colab GPU和TPU进行训练,但我不知所措。我什至无法完成一个纪元。 数据集大小约为25 Mb,其中包含79000个示例。 这是我的implementation

我的实现有什么问题吗?

0 个答案:

没有答案