进行转移学习时,应保留哪些CNN全连接层的最佳实践是什么?

时间:2019-10-31 13:11:00

标签: machine-learning keras deep-learning conv-neural-network data-science

我似乎找不到这个问题的具体答案。我目前正在从 VGG19 网络进行转移学习,我的目标域是文档分类(仅通过视觉分类或将CNN的特征提取用于其他模型)。 我想了解在哪种情况下需要保留模型的所有完全连接层,在哪种情况下应该删除完全连接层并在最后一个卷积层之上创建新的完全连接层。这些选择对训练,预测等意味着什么?

这些是使用Keras表示我的意思的代码示例:

提取最后一个完全连接的层:

original_model = VGG19(include_top=True, weights='imagenet', input_shape=(224, 224, 3))
layer_name = 'fc2'
x = Dropout(0.5)(original_model.get_layer(layer_name).output)
x = BatchNormalization()(x)
predictions = Dense(num_classes, activation='softmax')(x)

features_model = Model(inputs=original_model.input, outputs=predictions)
adam = optimizers.Adam(lr=0.001)
features_model.compile(optimizer=adam, loss='categorical_crossentropy', metrics=['accuracy'])
features_model.summary()

return features_model

在最后一个卷积层之后添加一个完全连接的层:

original_model = VGG19(include_top=False, weights='imagenet', input_shape=(224, 224, 3))
x = Flatten()(base_model.output)
x = Dense(4096, activation='relu')(x)
x = Dropout(0.5)(x)
x = BatchNormalization()(x)
predictions = Dense(num_classes, activation='softmax')(x)

head_model = Model(input=base_model.input, output=predictions)

adam = optimizers.Adam(lr=0.001)
head_model.compile(optimizer=adam, loss='categorical_crossentropy', metrics=['accuracy'])
head_model.summary()
return head_model

进行转移学习时,有什么选择的经验法则吗?

1 个答案:

答案 0 :(得分:1)

根据我过去的经验,成功地将股票市场的转移学习应用于业务预测,您应该保持原始结构,因为如果您正在进行转移学习,那么您将希望加载从原始结构训练而来的权重,而不会出现差异。神经网络架构。然后,您解冻CNN的各个部分,然后您的神经网络训练将以高精度开始训练,并根据目标问题调整权重。

但是,如果删除Flatten层,则由于要训练的参数较少,因此计算量将减少。

我遵循保持神经网络尽可能简单(等于更大的泛化属性),高效的规则。

@Kamen,关于您需要多少数据的补充,取决于您的数据的差异。变化更多,您将需要更多的层和权重来学习细节。但是,当您增加体系结构的复杂性时,与例如使用Dropout减少神经网络相比,您的神经网络更容易过度拟合。

由于完全连接的层是神经网络中较昂贵的部分,因此,如果添加一层或两层,则参数编号将增加很多,需要更多的时间进行训练。随着层数的增加,您将获得更高的精度,但是可能会过拟合。

例如,使用非常简单的架构,具有10,000个示例的MNIST可以达到超过99%的精度。但是,IMAGENET具有1,000,000个示例(155 GB),然后需要更复杂的结构,例如VGG16。