Lua和Torch与GPu有关

时间:2017-06-08 04:34:59

标签: lua gpu torch opennmt

我正在尝试从OpenNMT运行基于Lua的程序。我从这里开始遵循这个程序:http://forum.opennmt.net/t/text-summarization-on-gigaword-and-rouge-scoring/85

我使用了命令:

 th train.lua -data textsum-train.t7 -save_model textsum1 -gpuid 0 1 2 3 4 5 6 7

我正在使用8个GPU但是这个过程仍然很慢,好像这个过程在CPU上工作一样。亲切的,让我知道可能是优化GPU使用的解决方案 以下是GP使用情况的统计数据:
GPUSTATS

请告诉我如何使用完整的GPU让流程运行得更快。我有11GB可用,但该过程仅消耗2 GB或更少。因此这个过程非常缓慢。

1 个答案:

答案 0 :(得分:3)

根据OpenNMT documentation,由于0代表CPU,因此您需要在gpuid选项之后立即从0中删除-gpuid,并且可以有效地将训练速度降低到一个由CPU驱动的系统。

  

要使用数据并行性,请将GPU标识符列表分配给th train.lua -data data/demo-train.t7 -save_model demo -gpuid 1 2 4选项。例如:

     

//field[name='internalImageUrl']

     

将使用CUDA API返回的计算机的第一,第二和第四GPU。