使用tf.summary.Filewriter时,我们可以保存全局步骤(在Tensorboard中组织数据)
{{1}}
为什么add_summary需要GLOBAL_STEP为int而不是tf变量global_step?由于它的参数被明确命名为global_step,因此它似乎并不适用于你有一些步骤/计数不全局步骤的场景。
这是为了节省必须将会话参数传递给作者吗?为什么要在运行会话的环境之外运行编写器?
答案 0 :(得分:0)
在大多数情况下,您需要进行数十万步的训练。每次保存所有摘要都是很昂贵的,没有太大的意义。
可能它被选择为整数(it is documented that it is an integer),因为它大多是在此循环中执行的。
for i in range(maximum_number_of_steps):
# do your optimization.
writer.add_summary(summary, global_step=i)
似乎不打算将其用于某些步骤/计数不是全局步骤的情况中。并非可以是您可以推断出的任何整数。如果保存每1k次迭代的摘要,则可以使用i // 1000
。