如何在tf.layers中使用张量板?

时间:2017-06-24 01:08:28

标签: tensorflow tensorboard

由于没有明确定义权重,我如何将它们传递给摘要编写器?

例如:

conv1 = tf.layers.conv2d(
    tf.reshape(X,[FLAGS.batch,3,160,320]),
    filters = 16,
    kernel_size = (8,8),
    strides=(4, 4),
    padding='same',
    kernel_initializer=tf.contrib.layers.xavier_initializer(),
    bias_initializer=tf.zeros_initializer(),
    kernel_regularizer=None,
    name = 'conv1',
    activation = tf.nn.elu
    )

=>

summarize_tensor(
    ??????
)

谢谢!

2 个答案:

答案 0 :(得分:7)

虽然Da Tong的答案已经完成,但我花了一些时间才意识到如何使用它。为了节省其他初学者的时间,您需要在代码中添加以下内容,以将所有可训练变量添加到tensorboard摘要中:

PYTHONPATH

答案 1 :(得分:4)

这取决于您要在TensorBoard中记录的内容。如果您想将每个变量放入TensorBoard,请致电tf.all_variables()tf.trainable_variables()将为您提供所有变量。请注意,tf.layers.conv2d只是创建Conv2D实例并调用它的apply方法的包装器。你可以像这样解开它:

conv1_layer = tf.layers.Conv2D(
    filters = 16,
    kernel_size = (8,8),
    strides=(4, 4),
    padding='same',
    kernel_initializer=tf.contrib.layers.xavier_initializer(),
    bias_initializer=tf.zeros_initializer(),
    kernel_regularizer=None,
    name = 'conv1',
    activation = tf.nn.elu
)

conv1 = conv1_layer.apply(tf.reshape(X,[FLAGS.batch,3,160,320]))

然后您可以使用conv1_layer.kernel来访问内核权重。