tensorflow conv2d的填充策略是什么?

时间:2018-05-26 17:45:15

标签: python tensorflow convolution

我按照stackoverflow

的提问和回答

然而,在我进行了以下测试之后,我仍然对 tf.nn.conv2d 开始索引填充策略感到困惑,希望如此有人可以在这里给我一个线索,尤其是奇数甚至步幅

  

数组高度(h),内核大小(f),步幅数

h,f,s = 4,3,2 
  

矩阵 x 右侧列(pr)左侧列(pl)填充的填充数

pl = int((f-1)/2)                           
pr = int(np.ceil((f-1)/2))                  

tf.reset_default_graph()
x = np.arange(1*h*h*1).reshape(1,h,h,1)
w = np.ones((f,f,1,1))
xc = tf.constant(x,np.float32)
wc = tf.constant(w,np.float32)
xp = np.pad(x,((0,0),(pl,pr),(pl,pr),(0,0)),'constant',constant_values = 0)
xcp = tf.constant(xp,np.float32)
zs = tf.nn.conv2d(xc,wc,strides=[1,s,s,1],padding='SAME')
zv = tf.nn.conv2d(xc,wc,strides=[1,s,s,1],padding='VALID')
zp = tf.nn.conv2d(xcp,wc,strides=[1,s,s,1],padding='VALID')

with tf.Session() as sess:
    os = sess.run(zs)
    ov = sess.run(zv)
    op = sess.run(zp)

print('x shape: ', x.shape,' kernel: ',f,' stride: ',s,'\n',x[0,:,:,0])
print(' 'SAME' os shape: ', os.shape,'\n',os[0,:,:,0])
print(' 'VALID' ov shape: ', ov.shape,'\n',ov[0,:,:,0])
print(' 'VALID' op shape: ', op.shape,' pl: ',pl,' pr: ', pr,'\n',op[0,:,:,0])

如果汇集在卷积中,零填充应该在数组x周围填充,就像我如何定义 xp 一样,但是,我无法弄清楚它的起始索引是如何转换的

原点矩阵x

x shape:  (1, 4, 4, 1)  kernel:  3  stride:  2 
[[ 0  1  2  3]
[ 4  5  6  7]
[ 8  9 10 11]
[12 13 14 15]]

在'相同'类型的卷积中,为什么tf.nn.conv2d在这种情况下左边没有填零?

'SAME' os shape:  (1, 2, 2, 1) 
[[45. 39.]
[66. 50.]]

矩阵x上的有效卷积

'VALID' ov shape:  (1, 1, 1, 1) 
[[45.]]

xp零填充后的有效类型卷积(作为我的预期结果)

'VALID' op shape:  (1, 2, 2, 1)  pl:  1  pr:  1 
[[10. 24.]
[51. 90.]]

1 个答案:

答案 0 :(得分:1)

(总)填充的公式解释为here

enter image description here

在您的情况下,n mod s = 4 mod 2 = 0如此

p = max(3 - 2, 0) = 1

所以

p_left = p // 2 = 0
p_right = 1 - p_left = 1

这解释了为什么你在左边看不到任何填充物。