我尝试使用tensorflow的SummaryWriter,但它似乎没有将事件,图像或直方图写入文件。然而,它确实将图形写入文件,(我可以在tensorboard中看到),至少表明tensorboard和SummaryWriter知道我的logdir在哪里。
这是我的(简化)代码,由省略的代码块分解:
sess = tf.Session()
W_conv1 = tf.Variable(tf.truncated_normal([5,5,3, hidden1_size], stddev = 0.01), name = 'W_conv1')
b_conv1 = tf.Variable(tf.constant(0.01, shape=[hidden1_size]), name = 'b_conv1')
#to visualize the weights of the first layer...
sum2 = tf.image_summary('first layer weights', tf.transpose(W_conv1, perm = [3, 0, 1, 2]), max_images = 16)
h_conv1 = tf.nn.relu(b_conv1 + conv(x, W_conv1))
#to visualize how many dead relu's we have
sum1 = tf.scalar_summary('conv1', tf.nn.zero_fraction(h_conv1))
....更多图层
softmax = {}
cross_entropy = tf.Variable(0.0)
softmax[0] = tf.nn.softmax(fc_out)
cross_entropy += -tf.reduce_sum(y_*tf.log(softmax[0]))
.... Reccurrent Part
sum3 = tf.histogram_summary('cross entropy', cross_entropy)
lr = tf.Variable(tf.constant(1e-3))
lr_change = tf.assign(lr, tf.mul(.1, lr))
train_step = tf.train.AdamOptimizer(lr).minimize(cross_entropy)
merged=tf.merge_all_summaries()
writer = tf.train.SummaryWriter("./logs", sess.graph_def, flush_secs = 5)
sess.run(tf.initialize_all_variables())
....然后是训练代码:
for i in range(train_iter):
batch_i = np.random.randint(0, len(X_t), [batch_size])
X_batch = X_t[batch_i]
y_batch = y_t[batch_i]
summary_str, _, loss = sess.run([merged, train_step, cross_entropy], feed_dict = {x: X_batch, y_: y_batch})
writer.add_summary(summary_str, i)
writer.flush()
saver.save(sess, 'RNN_model.ckpt', global_step = i)
然后当我加载tensorboard,并查看事件选项卡时,我看到以下错误:
未找到标量摘要标记。
也许数据尚未加载,或者您可能需要在图表中添加一些> tf.scalar_summary操作,并使用> tf.training.summary_io.SummaryWriter序列化它们。
我添加了writer.flush()语句,因为在github上搜索两个堆栈交换后,这是一个常见的建议。问题没有解决。
在我的日志文件中,只写入graph_def,在训练期间不会写入其他文件。
我使用tensorflow' 0.7.1'在Mac 0SX el-capitan上。
谢谢!
答案 0 :(得分:0)
我知道这是一篇旧帖子,但我在运行TensorFlow 1.1.0的虚拟环境中遇到了同样的事情。运行版本1.2.1我似乎没有这个问题。您可以在命令行执行以下命令以确定您正在运行的TensorFlow版本:
python -c "import tensorflow as tf; print(tf.__version__)"
希望有人帮助那里的人!
干杯,
-Maashu