如何在TensorFlow中使用L2正则化?

时间:2018-07-24 13:30:35

标签: python tensorflow

我在贪婪的训练过程中使用了L2正则化:

tf.add_to_collection(tf.GraphKeys.WEIGHTS, W1)
tf.add_to_collection(tf.GraphKeys.WEIGHTS, W2)
regularizer = tf.contrib.layers.l2_regularizer(lambd)

然后,我通过L2正则化训练了我的softmax层:

tf.add_to_collection(tf.GraphKeys.WEIGHTS, W_softmax)
regularizer = tf.contrib.layers.l2_regularizer(lambd)

我的问题是:

  • 我在softmax层中的正则化是L2(W1, W2, W_softmax)还是L2(W_softmax)
  • 如果为L2(W1, W2, W_softmax),如何解决此问题?
  • 在我贪婪的训练过程之后如何重置tf.GraphKeys.WEIGHTS

0 个答案:

没有答案