总结张量流中的张量列表

时间:2015-12-29 21:50:34

标签: python tensorflow cost-based-optimizer

我有一个深度神经网络,其中图层之间的权重存储在列表中。

layers[j].weights我想在我的成本函数中包含脊线惩罚。我需要使用类似的东西 tf.nn.l2_loss(layers[j].weights**2 for j in range(self.n_layers))即所有权重的平方和。

特别是权重定义为:

>>> avs.layers
[<neural_network.Layer object at 0x10a4b2a90>, <neural_network.Layer object at 0x10ac85080>, <neural_network.Layer object at 0x10b0f3278>, <neural_network.Layer object at 0x10b0eacf8>, <neural_network.Layer object at 0x10b145588>, <neural_network.Layer object at 0x10b165048>, <neural_network.Layer object at 0x10b155ba8>]
>>>
>>> avs.layers[0].weights
<tensorflow.python.ops.variables.Variable object at 0x10b026748>
>>> 

我怎样才能在张量流中做到这一点?

2 个答案:

答案 0 :(得分:22)

对张量列表求和的标准方法是使用tf.add_n()操作,该操作采用张量列表(每个具有相同的大小和形状)并生成包含总和的单个张量。

对于您遇到的特定问题,我假设每个layers[j].weights可能有不同的大小。因此,您需要在求和之前将每个元素减少到标量,例如,使用tf.nn.l2_loss()函数本身:

weights = [layers[j].weights for j in range(self.n_layers)]
losses = [tf.nn.l2_loss(w) for w in weights]
total_loss = tf.add_n(losses)

(但请注意,当要添加的值很大时,您可能会发现计算tf.add()操作序列的效率更高,因为TensorFlow会保留每个add_n参数的值。记忆直到所有计算出来。add ops链允许一些计算更早发生。)

答案 1 :(得分:1)

tf.nn.l2_loss()函数返回一个0维的张量。

但不需要手动将其应用于每个重量张量是很好的,因此将重量张量存储在列表中是解决问题的一种方法(正如@mrry所说)。

但不是每次都要写出来,你可以做的是使用以下功能

def l2_loss_sum(list_o_tensors):
    return tf.add_n([tf.nn.l2_loss(t) for t in list_o_tensors])

在您的情况下,这将是:

total_loss = l2_loss_sum([layers[j].weights for j in range(self.n_layers)])

此外,tf.nn.l2_loss()隐式将平方运算应用于值,并将所有平方值乘以1/2,所以你使用类似tf.nn.l2_loss(layers[j].weights**2 for j in range(self.n_layers))的东西,你实际上会将权重提高到第四种力量。结果你的这个损失项的衍生物会很奇怪:它不会取消1/2到1(但会隐含地加倍你的β)并且权重将是立方的。