对于我来说,Tensorflow的一个谜团是:变量何时表示单张量与批量?以下是具有连续值输出(不是分类器)的网络示例。在以loss
开头的行中,我通过从真值中减去预测并对一批中这些差异的绝对值求和来计算损失。在该行中,Tensorflow为truthValues_placeholder
插入了一批真值,因此truthValues_placeholder
是"批量"张量,即它对批次中的每个项目都有一个条目。但是,前一行将prediction
计算为单个值(而不是批处理)。我的问题:我是否正确Tensorflow将prediction
神奇地更改为"批量张量",因此它还为批次中的每个项目计算了一个条目?
graph = tf.Graph()
with tf.Graph().as_default():
...
# Network layers here
...
# Final layer
prediction = tf.matmul(inputsToLastLayer, weightsOutputLayer) + biasesOutputLayer
loss = tf.nn.l2_loss(tf.sub(prediction, truthValues_placeholder))
...
global_step = tf.Variable(0, name='global_step', trainable=False)
train_op = optimizer.minimize(loss, global_step=global_step)
...
sess = tf.Session()
init = tf.initialize_all_variables()
sess.run(init)
for step in xrange(maxSteps):
feed_dict = fill_feed_dict(..., truthValues_placeholder,...)
答案 0 :(得分:1)
Tensorflow的行为与numpy相同,因为它将单个单元的基本操作广播到整个矩阵,例如
{{1}}
所以,没什么可惊讶的。如果您想确定,可以先使用NumPy测试您的操作。