我在贪婪的训练过程中使用了L2正则化:
tf.add_to_collection(tf.GraphKeys.WEIGHTS, W1)
tf.add_to_collection(tf.GraphKeys.WEIGHTS, W2)
regularizer = tf.contrib.layers.l2_regularizer(lambd)
然后,我通过L2正则化训练了我的softmax层:
tf.add_to_collection(tf.GraphKeys.WEIGHTS, W_softmax)
regularizer = tf.contrib.layers.l2_regularizer(lambd)
我的问题是:
L2(W1, W2, W_softmax)
还是L2(W_softmax)
?L2(W1, W2, W_softmax)
,如何解决此问题? tf.GraphKeys.WEIGHTS
?