目前我正在使用Theano进行机器学习,现在我想尝试一下Torch。
在Theano中,可以选择为GPU内存使用设置标志:
os.environ["THEANO_FLAGS"] = "mode=FAST_RUN, device=gpu,floatX=float32,lib.cnmem=0.9"
所以Theano使用GPU的设置容量,这里是90%。然而,在Torch中,类似的网络使用大约30%的GPU负载。
有没有办法在Torch中设置更高的GPU负载,类似于Theano?
答案 0 :(得分:0)
Torch将根据其标准分配器使用尽可能多的GPU内存。
火炬使用的内存量不需要像在Theano那样预先指定。