使用GradientDescentOptimizer时是否在TensorFlow中实现了反向传播?

时间:2016-10-14 08:38:46

标签: tensorflow tensorboard

在TensorFlow白皮书中,声明梯度是在带有链规则的向后路径上计算的。我想象了教程" https://github.com/tensorflow/tensorflow/blob/master/tensorflow/examples/tutorials/mnist/mnist_softmax.py"在Tensorboard中,无法确定这是否真的发生了。 如果Tensorboard可视化中存在边缘,那么数据是否可以在两个方向上流动? (通常我会期望有针对性的边缘) Graph visualisation in Tensorboard

1 个答案:

答案 0 :(得分:1)

在" GradientDescent"你已经看过这两个" update_w"和" update_b"盒子,你想知道为什么箭头只从变量中指向,但没有一个指向它们。

基本上,tensorboard中的箭头表示依赖关系,而不是数据如何移动。他们很多时候都很相似。但它不像matlab的simulink,如果你熟悉它。你不能在图表中有周期。

所以箭头说:你不能运行" update_w"直到你有" w"," learning_rate"和"渐变"。

" update_w"更新" w",没有箭头显示它。

更新也不会沿箭头向后移动。考虑:

x = tf.Variable(0,'x')
y = tf.Variable(1,'y')
set_x_eq_y =x.assign(y,name = 'set_x_eq_y')

这里的图表中有一个箭头来自" y" to" set_x_eq_y"。没有箭头触及" x"。