在tensorflow tutorial for word embedding中找到:
# Placeholders for inputs
train_inputs = tf.placeholder(tf.int32, shape=[batch_size])
train_labels = tf.placeholder(tf.int32, shape=[batch_size, 1])
这两个占位符之间可能存在差异。它们不是大小为batch_size的int32列向量吗?
感谢。
答案 0 :(得分:2)
我通过一些调试找到答案。
[batch_size] = [ 0, 2, ...]
[batch_size, 1] = [ [0], [2], ...]
虽然仍然不知道为什么要使用第二种形式。
答案 1 :(得分:0)
train_inputs
是行向量,而train_labels
是列向量。