VGG,在keras的感性损失

时间:2017-05-11 12:05:49

标签: python tensorflow keras deep-learning vgg-net

我想知道是否可以将自定义模型添加到keras中的损失函数中。例如:

def model_loss(y_true, y_pred):
    inp = Input(shape=(128, 128, 1))
    x = Dense(2)(inp)
    x = Flatten()(x)

    model = Model(inputs=[inp], outputs=[x])
    a = model(y_pred)
    b = model(y_true)

    # calculate MSE
    mse = K.mean(K.square(a - b))
    return mse

这是一个简化的例子。我实际上在损失中使用VGG网,所以只是试图了解keras的机制。

1 个答案:

答案 0 :(得分:5)

通常的做法是将VGG附加到模型的末尾,在编译之前确保其所有图层都有trainable=False

然后重新计算你的Y_train。

假设您有这些模型:

mainModel - the one you want to apply a loss function    
lossModel - the one that is part of the loss function you want   

创建一个彼此追加的新模型:

from keras.models import Model

lossOut = lossModel(mainModel.output) #you pass the output of one model to the other

fullModel = Model(mainModel.input,lossOut) #you create a model for training following a certain path in the graph. 

此模型将具有与mainModel和lossModel完全相同的权重,并且训练此模型将影响其他模型。

确保在编译之前无法训练lossModel:

lossModel.trainable = False
for l in lossModel.layers:
    l.trainable = False

fullModel.compile(loss='mse',optimizer=....)

现在调整您的数据进行培训:

fullYTrain = lossModel.predict(originalYTrain)

最后进行培训:

fullModel.fit(xTrain, fullYTrain, ....)