我是tensorflow的新手,只是想说明如果我不在图中调用优化节点,我就不会在测试集上进行培训。
这是一个优化器节点;
opt = tf.train.GradientDescentOptimizer(learning_rate = learning_rate)
opt_operation = opt.minimize(mse)
这是我的训练步骤。只是想澄清一下,只计算方括号中的节点;正在调用opt_operation
,因此模型中的权重正在更新?
_,yPred_,loss, score = sess.run([opt_operation,yPred,mse,diceScore],
feed_dict={x:batchX,y_:batchY,learning_rate:lr})
最后,这是我的测试步骤,不会调用opt_operation
。
loss,score = sess.run([mse,diceScore],
feed_dict={x:batchX,y_:batchY})
这个最终sess.run
步骤中的训练不正确吗?
答案 0 :(得分:1)
是的,没错。
仅在执行vv <- VarCorr(m3)
vv2 <- vv[c("subject1","position:subject1","comparison1","Residual"),]
storage.mode(vv2) <- "numeric"
print(vv2,digits=4)
Variance StdDev
subject1 7.849e-02 2.802e-01
position:subject1 4.681e-11 6.842e-06
comparison1 7.905e-02 2.812e-01
Residual 8.818e-01 9.390e-01
时执行训练步骤。
你的最后一步:
opt_operation
仅评估loss,score = sess.run([mse,diceScore],
feed_dict={x:batchX,y_:batchY})
和mse
张量:未进行优化。