使用keras预训练vgg16的感知损失输出图像颜色不正确

时间:2018-06-03 09:26:53

标签: python keras deep-learning

我是深度学习和keras的新手。 我正在尝试使用keras训练一个具有感知损失的Unet。 我的输出图像颜色有问题。 我的输入图像是彩色图像(RGB)。

如果我没有预处理输入图像,这意味着输入是RGB为0~255。 输出如下: output image(RGB with 0~255) 它比label image更暗。

我发现预训练的vgg16模型正在使用" caffe"权重。函数 keras.applications.vgg16.preprocess_input 会将RGB更改为BGR并减去平均值。 所以我尝试使用 keras.applications.vgg16.preprocess_input ,然后通过添加平均值然后更改回RGB来处理输出图像。 但输出图像太白: output image(vgg16.preprocess_input)

然后我用比率添加MSE损失 - > 10:1(知觉损失:MSE) 输出没有不同 output image(vgg16.preprocess_input)

我想知道这是感知丢失的常见问题,或者我的代码中有什么问题?

这是我的代码

预处理图片

img = load_img(datapath, grayscale = False)
img = img.resize( (resize_size, resize_size), Image.BILINEAR )
img = img_to_array(img)
img = preprocess_input(img)

deprocess image:

mean = [103.939, 116.779, 123.68]
img[..., 0] += mean[0]
img[..., 1] += mean[1]
img[..., 2] += mean[2]
img = img[..., ::-1]

知觉损失:

def perceptual_loss(y_true, y_pred): 
    vgg = VGG16(include_top=False, weights='imagenet', input_shape=(resize_size, resize_size, 3)) 
    loss_model = Model(inputs=vgg.input, 
    outputs=vgg.get_layer('block3_conv3').output) 
    loss_model.trainable = False
    return K.mean(K.square(loss_model(y_true) - loss_model(y_pred)))

如果您有任何想法,请告诉我。非常感谢!!!

1 个答案:

答案 0 :(得分:1)

"你的"的输出模型与任何关于VGG,caffe等的东西都没有关系。

它"你"谁在您创建模型时定义它。

因此,如果您的模型的输出必须介于0到255之间,则可能的最后一层是:

Activation('sigmoid')   
Lambda(lambda x: x*255)

然后,您需要感知损失中的preprocess_input功能:

def perceptual_loss(y_true, y_pred): 
    y_true = preprocess_input(y_true)
    y_pred = preprocess_input(y_pred)
    vgg = VGG16(include_top=False, weights='imagenet', input_shape=(resize_size, resize_size, 3)) 
    loss_model = Model(inputs=vgg.input, 
    outputs=vgg.get_layer('block3_conv3').output) 
    loss_model.trainable = False
    return K.mean(K.square(loss_model(y_true) - loss_model(y_pred)))

另一种可能性是对模型的输出进行后处理。 (但同样,输出的范围完全由你定义)。