Theano多个张量作为输出

时间:2014-11-21 15:20:47

标签: python neural-network theano

我正在使用Theano来创建一个神经网络,但当我尝试同时在列表中返回两个张量列表时,我收到错误:

#This is the line that causes the error
#type(nabla_w) == <type 'list'>
#type(nabla_w[0]) == <class 'theano.tensor.var.TensorVariable'>
backpropagate = function(func_inputs, [nabla_w, nabla_b])

TypeError: Outputs must be theano Variable or Out instances. Received [dot.0, dot.0, dot.0, dot.0] of type <type 'list'>

我应该使用什么样的Theano结构将两个张量一起返回到数组中,以便我可以像这样检索它们:

nabla_w, nabla_b = backpropagate(*args)

我尝试使用我在basic Tensor functionality page中找到的一些东西,但没有一个能奏效。 (例如,我尝试过堆栈或堆栈列表)

以下是我使用theano.tensor.stack或stacklists获得的错误:

ValueError: all the input array dimensions except for the concatenation axis must match exactly
Apply node that caused the error: Join(TensorConstant{0}, Rebroadcast{0}.0, Rebroadcast{0}.0, Rebroadcast{0}.0, Rebroadcast{0}.0)
Inputs shapes: [(), (1, 10, 50), (1, 50, 100), (1, 100, 200), (1, 200, 784)]
Inputs strides: [(), (4000, 400, 8), (40000, 800, 8), (160000, 1600, 8), (1254400, 6272, 8)]
Inputs types: [TensorType(int8, scalar), TensorType(float64, 3D), TensorType(float64, 3D), TensorType(float64, 3D), TensorType(float64, 3D)]
Use the Theano flag 'exception_verbosity=high' for a debugprint of this apply node.

代码的一些额外上下文:

weights = [T.dmatrix('w'+str(x)) for x in range(0, len(self.weights))]
biases = [T.dmatrix('b'+str(x)) for x in range(0, len(self.biases))]
nabla_b = []
nabla_w = []
# feedforward
x = T.dmatrix('x')
y = T.dmatrix('y')
activations = []
inputs = []
activations.append(x)
for i in xrange(0, self.num_layers-1):
    inputt = T.dot(weights[i], activations[i])+biases[i]
    activation = 1 / (1 + T.exp(-inputt))
    activations.append(activation)
    inputs.append(inputt)

delta = activations[-1]-y
nabla_b.append(delta)
nabla_w.append(T.dot(delta, T.transpose(inputs[-2])))

for l in xrange(2, self.num_layers):
    z = inputs[-l]
    spv = (1 / (1 + T.exp(-z))*(1 - (1 / (1 + T.exp(-z)))))
    delta = T.dot(T.transpose(weights[-l+1]), delta) * spv
    nabla_b.append(delta)
    nabla_w.append(T.dot(delta, T.transpose(activations[-l-1])))
T.set_subtensor(nabla_w[-l], T.dot(delta, T.transpose(inputs[-l-1])))
func_inputs = list(weights)
func_inputs.extend(biases)
func_inputs.append(x)
func_inputs.append(y)


backpropagate = function(func_inputs, [nabla_w, nabla_b])

1 个答案:

答案 0 :(得分:6)

Theano不支持此功能。当你致电theano.function(inputs, outputs)时,输出只能是两件事:

1)Theano变量 2)Theano变量列表

(2)不允许您在顶级列表中有一个列表,因此您应该在输出中展平列表。这将返回2个以上的输出。

解决问题的可行方法是将内部列表复制到1个变量中。

tensor_nabla_w = theano.tensor.stack(*nabla_w).

这要求nabla_w中的所有元素都是相同的形状。这将在计算图中添加一个额外的副本(因此可能会慢一点)。

更新1:修复对stack()的调用

更新2:

截至目前,我们还有一个附加约束,即所有元素都有不同的形状,因此无法使用堆栈。如果它们都具有相同数量的维度和dtype,则可以使用typed_list,否则您需要自己修改Theano或者压缩输出列表。