基于这个github链接https://github.com/dennybritz/cnn-text-classification-tf,我想在GPU上的Ubuntu-16.04上对我的数据集进行分类。 为了在GPU上运行,我已经将text_cnn.py上的第23行更改为: with tf.device(' / gpu:0 '), tf.name_scope("嵌入&#34):
列车阶段的第一个数据集有 9000个文档,其大小约为 120M , 火车的第二 1300个文件,其大小约为 1M 。
请指导我,我该如何解决这个问题? 感谢。
答案 0 :(得分:0)
您出现内存不足错误,因此首先要尝试的是较小的批量大小 (默认为64)。我会从:
开始 ./train.py --batch_size 32
答案 1 :(得分:0)
大部分内存用于保存嵌入参数和卷积参数。我建议减少:
EMBEDDING_DIM
NUM_FILTERS
BATCH_SIZE
尝试embedding_dim = 16,batch_size = 16和num_filters = 32,如果可行的话,一次增加2x。
此外,如果您使用docker虚拟机运行tensorflow,默认情况下您可能只使用1G内存,尽管您的计算机中有16G内存。有关详细信息,请参阅here。