在Torch Machine Learning Framework中设置GPU使用率

时间:2016-12-30 22:55:32

标签: lua gpu torch

目前我正在使用Theano进行机器学习,现在我想尝试一下Torch。

在Theano中,可以选择为GPU内存使用设置标志:

os.environ["THEANO_FLAGS"] = "mode=FAST_RUN, device=gpu,floatX=float32,lib.cnmem=0.9"

所以Theano使用GPU的设置容量,这里是90%。然而,在Torch中,类似的网络使用大约30%的GPU负载。

有没有办法在Torch中设置更高的GPU负载,类似于Theano?

1 个答案:

答案 0 :(得分:0)

Torch将根据其标准分配器使用尽可能多的GPU内存。

火炬使用的内存量不需要像在Theano那样预先指定。