Keras - 分类器无法从预训练模型的转移值中学习

时间:2017-12-13 18:20:42

标签: keras classification conv-neural-network pre-trained-model

我目前正在尝试使用预先训练好的网络并在this dataset上进行测试。 最初,我使用了VGG19,并且只调整了最后的分类器以适应我的120级。我让所有训练层都可以通过更深入的训练来提高表现。问题是该模型非常慢(即使我让它运行一晚,我只有几个时代,并达到约45%的准确度 - 我有一个GPU GTX 1070)。

然后,我的想法是冻结这个模型中的所有图层,因为我只有10k图像并且只训练最后几个Denses图层,但它仍然不是很快。

在观看this video后(大约2分30秒),我决定用InceptionResnetv2复制转移值的原则。

我处理了每张图片,并使用以下代码将输出保存在numpy矩阵中。

# Loading pre-trained Model + freeze layers
model = applications.inception_resnet_v2.InceptionResNetV2(
        include_top=False, 
        weights='imagenet', 
        pooling='avg')

for layer in model.layers:
    layer.trainable = False

# Extraction of features and saving
a = True
for filename in glob.glob('train/resized/*.jpg'):
    name_img = os.path.basename(filename)[:-4]
    class_ = label[label["id"] == name_img]["breed"].values[0]
    input_img = np.expand_dims(np.array(Image.open(filename)), 0)
    pred = model.predict(input_img)
    if a:
        X = np.array(pred)
        y = np.array(class_)
        a = False
    else:
        X = np.vstack((X, np.array(pred)))
        y = np.vstack((y, class_))

np.savez_compressed('preprocessed.npz', X=X, y=y)

X是形状矩阵(10222,1536),y是(10222,1)。

之后,我设计了我的分类器(几种拓扑),我不知道为什么它无法进行任何学习。

# Just to One-Hot-Encode labels properly to (10222, 120)
label_binarizer = sklearn.preprocessing.LabelBinarizer()
y = label_binarizer.fit_transform(y)

model = Sequential()
model.add(Dense(512, input_dim=X.shape[1]))
# model.add(Dense(2048, activation="relu"))
# model.add(Dropout(0.5))
# model.add(Dense(256))
model.add(Dense(120, activation='softmax'))

model.compile(
    loss = "categorical_crossentropy", 
    optimizer = "Nadam", # I tried several ones
    metrics=["accuracy"]
)

model.fit(X, y, epochs=100, batch_size=64, 
          callbacks=[early_stop], verbose=1, 
          shuffle=True, validation_split=0.10)

您可以在下面找到模型的输出:

Train on 9199 samples, validate on 1023 samples
Epoch 1/100
9199/9199 [==============================] - 2s 185us/step - loss: 15.9639 - acc: 0.0096 - val_loss: 15.8975 - val_acc: 0.0137
Epoch 2/100
9199/9199 [==============================] - 1s 100us/step - loss: 15.9639 - acc: 0.0096 - val_loss: 15.8975 - val_acc: 0.0137
Epoch 3/100
9199/9199 [==============================] - 1s 98us/step - loss: 15.9639 - acc: 0.0096 - val_loss: 15.8975 - val_acc: 0.0137
Epoch 4/100
9199/9199 [==============================] - 1s 96us/step - loss: 15.9639 - acc: 0.0096 - val_loss: 15.8975 - val_acc: 0.0137
Epoch 5/100
9199/9199 [==============================] - 1s 99us/step - loss: 15.9639 - acc: 0.0096 - val_loss: 15.8975 - val_acc: 0.0137
Epoch 6/100
9199/9199 [==============================] - 1s 96us/step - loss: 15.9639 - acc: 0.0096 - val_loss: 15.8975 - val_acc: 0.0137

我尝试更改拓扑,激活功能,添加丢失但没有任何改进。

我不知道我这样做的方式有什么问题。 X矩阵不正确吗?是否允许仅将预训练模型用作特征提取器,然后使用第二个模型执行分类?

非常感谢您的反馈, 问候, 尼古拉斯

1 个答案:

答案 0 :(得分:1)

在将图像阵列送入模型之前,您需要调用preprocess_input。它将input_img的值从[0,255]标准化为[-1,1],这是InceptionResNetV2的所需输入范围。

input_img = np.expand_dims(np.array(Image.open(filename)), 0)
input_img = applications.inception_resnet_v2.preprocess_input(input_img.astype('float32'))
pred = model.predict(input_img)