在gpu上运行tensorflow textsum模型

时间:2017-10-21 18:37:23

标签: machine-learning tensorflow deep-learning tensorflow-gpu rnn

在cpu上,textum培训代码(https://github.com/tensorflow/models/tree/master/research/textsum)运行完美。

要在gpu上运行代码以加快培训速度,我已经更改了" cpu"到" gpu"在以下4行中: https://github.com/tensorflow/models/blob/master/research/textsum/seq2seq_attention.py#L84 https://github.com/tensorflow/models/blob/master/research/textsum/seq2seq_attention_model.py#L149 https://github.com/tensorflow/models/blob/master/research/textsum/seq2seq_attention_model.py#L217 https://github.com/tensorflow/models/blob/master/research/textsum/seq2seq_attention_model.py#L228

模型仍在训练中,但是再次在cpu上,而不是在gpu上。 (我使用nvidia-smi检查了它)

如果需要更改任何其他内容以便在gpu上进行训练,请告诉我。

1 个答案:

答案 0 :(得分:0)

更改这行代码将有助于您在GPU上训练模型

<强> textsum / seq2seq_attention.py

# change this line
# tf.app.flags.DEFINE_integer('num_gpus', 0, 'Number of gpus used.')
tf.app.flags.DEFINE_integer('num_gpus', 1, 'Number of gpus used.')

textsum / seq2seq_attention_model.py

# if self._num_gpus > 1:
#     self._cur_gpu = (self._cur_gpu + 1) % (self._num_gpus-1)
self._cur_gpu = (self._cur_gpu + 1) % (self._num_gpus-1 if self._num_gpus > 1 else self._num_gpus)

参考问题link