CNMeM启用了什么效果,但Theano中“cuDNN不可用”?

时间:2016-05-18 01:06:50

标签: python nvidia theano theano-cuda

我有以下基于Theano example的代码:

from theano import function, config, shared, sandbox
import theano.tensor as T
import numpy
import time

vlen = 10 * 30 * 768  # 10 x #cores x # threads per core
iters = 1000

rng = numpy.random.RandomState(22)
x = shared(numpy.asarray(rng.rand(vlen), config.floatX))
f = function([], T.exp(x))
print(f.maker.fgraph.toposort())
t0 = time.time()
for i in range(iters):
    r = f()
t1 = time.time()
print("Looping %d times took %f seconds" % (iters, t1 - t0))
print("Result is %s" % (r,))
if numpy.any([isinstance(x.op, T.Elemwise) for x in f.maker.fgraph.toposort()]):
    print('Used the cpu')
else:
    print('Used the gpu')

现在我用两种模式测试代码:

GPU模式,我明白了:

$ THEANO_FLAGS=mode=FAST_RUN,device=gpu,floatX=float32 python gpu.py
Using gpu device 0: Tesla C2075 (CNMeM is enabled with initial size: 95.0% of memory, cuDNN not available)
[GpuElemwise{exp,no_inplace}(<CudaNdarrayType(float32, vector)>), HostFromGpu(GpuElemwise{exp,no_inplace}.0)]
Looping 1000 times took 0.475526 seconds
Result is [ 1.23178029  1.61879349  1.52278066 ...,  2.20771813  2.29967761
  1.62323296]
Used the gpu

CPU模式,我明白了:

$ THEANO_FLAGS=mode=FAST_RUN,device=cpu,floatX=float32 python gpu.py
[Elemwise{exp,no_inplace}(<TensorType(float32, vector)>)]
Looping 1000 times took 5.221368 seconds
Result is [ 1.23178029  1.61879337  1.52278066 ...,  2.20771813  2.29967761
  1.62323284]
Used the cpu

注意两件事,GPU确实比CPU快(0.47秒对5秒)。但同时在GPU上我得到了cuDNN不可用的消息。

我的问题是这个。没有cuDNN会有什么影响?它有害吗?

1 个答案:

答案 0 :(得分:1)

如果您没有使用cuDNN,则代码不会使用GPU的全部功能。 GPU之前的GPU的好处是,GPU有很多真正的核心(从700到4000),普通CPU从1到8。

但GPU核心只能进行原始计算。如果你不使用cuDNN,其他标准库进行计算,或者可能(我不知道只使用GPU内存并使用简单的CPU进行计算)。

CuDNN是GPU加速的基元库。 这意味着如果你开始制作深度神经网络应用程序,它就不会那么快。

请阅读CuDNN

注意:因为我编写的GPU核心只能进行原始计算,如果你选择使用GPU,但是使用不支持GPU的功能,theano会暂时切换应用程序暂时为CPU提供这样的功能。(这需要时间来制作它)