一维CNN是否需要填充以保留输入长度?

时间:2019-04-16 06:24:39

标签: python tensorflow keras neural-network conv-neural-network

步幅= 1和1个滤波器的一维CNN不需要输出长度等于输入长度而无需填充吗?

我以为是这种情况,但是创建了具有这些规格的Keras模型,说输入形状为(17910,1)时输出形状为(17902,1)。我想知道为什么尺寸减小了,因为步幅是1,是一维卷积。

model = keras.Sequential([
layers.Conv1D(filters=1,kernel_size=9,strides=1,activation=tf.nn.relu,input_shape=X_train[0].shape)
        ])

我希望此模型的输出形状应为(17910,1),但很显然,我在此转换中缺少缩小尺寸的来源。层。

1 个答案:

答案 0 :(得分:4)

输出向量的长度取决于输入的长度和内核大小。由于您的内核大小为9,因此您的输入将得到17902卷积,从而得到形状为(17902,1)(无填充)的输出。

为了更好地理解:

没有填充:

enter image description here

带有填充:

enter image description here

是否应使用填充更是准确性的问题。正如Ian Goodfellow,Yoshua Bengio和Aaaron Courville在他们的Deep Learning书中发现的那样,最佳填充(至少对于2D图像)介于“无”和“相同”之间

所以我的建议是,尝试使用两种具有相同架构(除了填充)的CNN,并选择精度更高的CNN。

(来源:https://www.slideshare.net/xavigiro/recurrent-neural-networks-2-d2l3-deep-learning-for-speech-and-language-upc-2017