在卷积自动编码器中,编码器和解码器的卷积层是否可以不同

时间:2018-04-08 12:06:34

标签: deep-learning autoencoder

例如,我们有不同的滤波器大小和特征映射的数量,并且卷积层的数量也不同,隐藏单元多于输入单元,具体代码如下。我不知道这是否称为卷积自动编码器,或者必须以相同的方式对其进行解码和编码。我希望有人可以帮我回答这个问题。非常感谢你。

input_data = Input(shape=(1,128,3))
x = Conv2d(6,(1,1),padding='same')(input_data)
new_input_data = keras.layers.concatenate([input_data,x],axis=-1)
x = Conv2D(40,(1,6),activation='relu',padding='same')(new_input_data)
encoded = MaxPooling2D((1,2),padding='same')(x)

x = Conv2D(40,(1,6),activation='relu',padding='same')(encoded)
x = UpSampling2D((1,2))(x)
decoded = Conv2D(3,(1,6),activation='relu',padding='same')(x)

频道的变化:3 - > 6 - > 9 - > 40 40 - > 3

0 个答案:

没有答案