所以我读过theano不能用float64
进行gpu计算,并将int作为共享变量存储在gpu上,必须将它们初始化为共享float32
数据,然后重新设置为int(如在逻辑回归example中的“小黑客”中... ...但经过这样的重铸后,theano能否在整数上进行gpu计算?并且存储是计算的前提条件?换句话说,以下两种情况是否可能?
场景1.我想在两个大的int向量上做一个点积。因此,我将它们分享为float32
并在点积之前将它们重新转换为int,然后在gpu上完成此点积(无论int类型)?
场景2.如果场景1是可能的,是否仍然可以在gpu上进行计算而不将它们首先存储为共享的float32? (我知道共享变量可能会缓解gpu-cpu通信,但是dot产品仍然可能吗?存储是计算gpu的先决条件吗?)
答案 0 :(得分:5)
不,目前没有办法在GPU上使用float32
以外的任何类型进行任何操作。
这可以通过这个小的演示代码看到:
import numpy
import theano
import theano.tensor as tt
x = theano.shared(numpy.arange(9 * 10).reshape((9, 10)).astype(numpy.float32))
y = theano.shared(numpy.arange(10 * 11).reshape((10, 11)).astype(numpy.float32))
z = theano.dot(tt.cast(x, 'int32'), tt.cast(y, 'int32'))
f = theano.function([], outputs=z)
theano.printing.debugprint(f)
在GPU上运行时,它将打印以下计算图:
dot [@A] '' 4
|Elemwise{Cast{int32}} [@B] '' 3
| |HostFromGpu [@C] '' 1
| |<CudaNdarrayType(float32, matrix)> [@D]
|Elemwise{Cast{int32}} [@E] '' 2
|HostFromGpu [@F] '' 0
|<CudaNdarrayType(float32, matrix)> [@G]
在这里你可以看到两个共享变量确实存储在GPU内存中(两个CudaNdarrayType
)但是它们被从GPU移动到主机(即CPU /主内存)({{1在被强制转换为int并使用常规HostFromGpu
操作之前。
如果省略了演员表,那么你会看到
dot
显示GPU正在执行点积(HostFromGpu [@A] '' 1
|GpuDot22 [@B] '' 0
|<CudaNdarrayType(float32, matrix)> [@C]
|<CudaNdarrayType(float32, matrix)> [@D]
操作)但是在浮点数据上,而不是整数数据。