运行文本分类 - GPU

时间:2017-11-12 08:28:50

标签: tensorflow deep-learning gpu text-classification tensorflow-gpu

基于这个github链接https://github.com/dennybritz/cnn-text-classification-tf,我想在GPU上的Ubuntu-16.04上对我的数据集进行分类。 为了在GPU上运行,我已经将text_cnn.py上的第23行更改为: with tf.device(' / gpu:0 '), tf.name_scope("嵌入&#34):

列车阶段的第一个数据集 9000个文档,其大小约为 120M , 火车的第二 1300个文件,其大小约为 1M

在使用GPU运行我的Titan X服务器后,我遇到了错误。 img-3

img

请指导我,我该如何解决这个问题? 感谢。

2 个答案:

答案 0 :(得分:0)

您出现内存不足错误,因此首先要尝试的是较小的批量大小 (默认为64)。我会从:

开始

./train.py --batch_size 32

答案 1 :(得分:0)

大部分内存用于保存嵌入参数和卷积参数。我建议减少:

  • EMBEDDING_DIM
  • NUM_FILTERS
  • BATCH_SIZE

尝试embedding_dim = 16,batch_size = 16和num_filters = 32,如果可行的话,一次增加2x。

此外,如果您使用docker虚拟机运行tensorflow,默认情况下您可能只使用1G内存,尽管您的计算机中有16G内存。有关详细信息,请参阅here