为什么需要使用tf.Variable?

时间:2018-09-24 02:09:32

标签: tensorflow

在下面的代码中,我无法理解使用tf.Variable的需要吗?无论使用tf.Variable还是忽略它,我都得到相同的值。

`initial = tf.Variable(tf.truncated_normal(shape=[1,10,1], mean=0, 
stddev=0.1,seed=123))`

1 个答案:

答案 0 :(得分:0)

正如我在另一篇文章中回答的那样,我将再次发布它,在tensorflow中,使用tf.Variable()创建的任何内容都会在反向传播训练期间得到更新,例如权重矩阵。

理想情况下,默认情况下,除非明确指定tf.Variable(),否则每个non-trainable都是可训练的。

如果您执行此initial = tf.truncated_normal([5,10], mean=0, stddev=0.1),那么张量流将不会知道它是一个可训练的变量,因此将不会被训练。在整个训练过程中,它将保持不变。