然而,在我进行了以下测试之后,我仍然对 tf.nn.conv2d 的开始索引和填充策略感到困惑,希望如此有人可以在这里给我一个线索,尤其是奇数和甚至步幅
数组高度(h),内核大小(f),步幅数
h,f,s = 4,3,2
矩阵 x 右侧列(pr)左侧列(pl)填充的填充数
pl = int((f-1)/2)
pr = int(np.ceil((f-1)/2))
tf.reset_default_graph()
x = np.arange(1*h*h*1).reshape(1,h,h,1)
w = np.ones((f,f,1,1))
xc = tf.constant(x,np.float32)
wc = tf.constant(w,np.float32)
xp = np.pad(x,((0,0),(pl,pr),(pl,pr),(0,0)),'constant',constant_values = 0)
xcp = tf.constant(xp,np.float32)
zs = tf.nn.conv2d(xc,wc,strides=[1,s,s,1],padding='SAME')
zv = tf.nn.conv2d(xc,wc,strides=[1,s,s,1],padding='VALID')
zp = tf.nn.conv2d(xcp,wc,strides=[1,s,s,1],padding='VALID')
with tf.Session() as sess:
os = sess.run(zs)
ov = sess.run(zv)
op = sess.run(zp)
print('x shape: ', x.shape,' kernel: ',f,' stride: ',s,'\n',x[0,:,:,0])
print(' 'SAME' os shape: ', os.shape,'\n',os[0,:,:,0])
print(' 'VALID' ov shape: ', ov.shape,'\n',ov[0,:,:,0])
print(' 'VALID' op shape: ', op.shape,' pl: ',pl,' pr: ', pr,'\n',op[0,:,:,0])
如果汇集在卷积中,零填充应该在数组x周围填充,就像我如何定义 xp 一样,但是,我无法弄清楚它的起始索引是如何转换的
原点矩阵x
x shape: (1, 4, 4, 1) kernel: 3 stride: 2
[[ 0 1 2 3]
[ 4 5 6 7]
[ 8 9 10 11]
[12 13 14 15]]
在'相同'类型的卷积中,为什么tf.nn.conv2d在这种情况下左边没有填零?
'SAME' os shape: (1, 2, 2, 1)
[[45. 39.]
[66. 50.]]
矩阵x上的有效卷积
'VALID' ov shape: (1, 1, 1, 1)
[[45.]]
xp零填充后的有效类型卷积(作为我的预期结果)
'VALID' op shape: (1, 2, 2, 1) pl: 1 pr: 1
[[10. 24.]
[51. 90.]]
答案 0 :(得分:1)
(总)填充的公式解释为here:
在您的情况下,n mod s = 4 mod 2 = 0
如此
p = max(3 - 2, 0) = 1
所以
p_left = p // 2 = 0
p_right = 1 - p_left = 1
这解释了为什么你在左边看不到任何填充物。