我是TensorFlow的新手。我正在尝试在本文https://arxiv.org/abs/1506.04579中实现global_context提取,这实际上是对整个要素图的平均合并,然后将1x1要素图复制回原始大小。插图如下
具体而言,预期的操作如下。 输入:[N,1,1,C]张量,其中N是批量大小,C是通道数 输出:[N,H,W,C]张量,其中H,W是原始特征映射的高度和宽度,输出的所有H * W值与1x1输入相同。
例如,
[[1, 1, 1]
1 -> [1, 1, 1]
[1, 1, 1]]
我不知道如何使用TensorFlow执行此操作。 tf.image.resize_images需要3个通道,而tf.pad不能填充零以外的常量值。
答案 0 :(得分:16)
tf.tile可以帮助您
x = tf.constant([[1, 2, 3]]) # shape (1, 3)
y = tf.tile(x, [3, 1]) # shape (3, 3)
y_ = tf.tile(x, [3, 2]) # shape (3, 6)
with tf.Session() as sess:
a, b, c = sess.run([x, y, y_])
>>>a
array([[1, 2, 3]], dtype=int32)
>>>b
array([[1, 2, 3],
[1, 2, 3],
[1, 2, 3]], dtype=int32)
>>>c
array([[1, 2, 3, 1, 2, 3],
[1, 2, 3, 1, 2, 3],
[1, 2, 3, 1, 2, 3]], dtype=int32)
tf.tile(input, multiples, name=None)
multiples
表示您想在此轴上重复多少次
在y
重复轴0 3次
在y_
重复axis0 3次,axis1 2次
您可能需要先使用tf.expand_dim
是的,它接受动态形状
x = tf.placeholder(dtype=tf.float32, shape=[None, 4])
x_shape = tf.shape(x)
y = tf.tile(x, [3 * x_shape[0], 1])
with tf.Session() as sess:
x_ = np.array([[1, 2, 3, 4]])
a = sess.run(y, feed_dict={x:x_})
>>>a
array([[ 1., 2., 3., 4.],
[ 1., 2., 3., 4.],
[ 1., 2., 3., 4.]], dtype=float32)