我定义了一个简单的网络:
model = Sequential()
model.add(Conv1D(5, 3, activation='relu', input_shape=(10, 1),name="conv1",padding="same"))
model.add(MaxPooling1D())
model.add(Conv1D(5, 3, activation='relu',name="conv2",padding="same"))
model.add(MaxPooling1D())
model.add(Dense(1, activation='relu',name="dense1"))
model.compile(loss='mse', optimizer='rmsprop')
层的形状如下:
conv1-(None, 10, 5)
max1-(None, 5, 5)
conv2-(None,5,5)
max2-(None,2,5)
dense1-(None,2,1)
该模型共有106个参数,但是如果我删除最大池化层,则模型摘要如下所示:
conv1-(None, 10, 5)
conv2-(None,10,5)
dense1-(None,10,1)
在这两种情况下,总参数仍然为106,但是为什么通常这样写:最大池层减少了参数数量?
答案 0 :(得分:0)
哪种网络?全取决于你。
您的网络:否。