keras中损失函数的输出形状应该是多少?

时间:2017-06-27 23:01:48

标签: tensorflow deep-learning keras

例如,如果我正在进行图像预测并且我的网络输出是张量形状[299, 299, 3],我该如何编写损失函数loss(y_true, y_pred)。我应该期望y_truey_pred具有形状[batch_size, 299, 299, 3]并将损失函数的输出设置为形状[batch_size]或其他形状的数组吗?

1 个答案:

答案 0 :(得分:0)

编辑: 我写的第一个答案是认为你的输入是(299,299,3),而不是你的输出。我很抱歉! "图像预测"是相当模糊的,但如果你的意图是输出一个3D张量作为y_pred,你仍然可能想要创建一个产生标量的损失函数。这是因为样本的丢失需要与所有其他样本的误差合并。联合损失允许模型推广其行为。见this wiki snippet。从本质上讲,多维损失函数相当于在随机梯度下降中将批量大小设置为1。

第一回答:
通常你希望你的损失函数输出一个数字。如果你正在进行图像分类,你几乎肯定希望你的损失函数输出一个数字。

假设"图像预测"意味着"图像分类"您的输入可能是您的图像,而y_pred通常是一批一维数组,其长度等于可能的类数。

您的y_true将是一批与y_pred大小相同的one_hot编码数组。这意味着它们是长度等于图像类别数的数组。区别在于y_true向量包含全部零,除了相应图像类别索引处的单个1。

例如,如果您的图像只是狗,猫或羊,则有3种可能的类别。让我们任意说0表示狗,1表示猫,2表示羊。然后,如果图像是绵羊,则相应的y_true将为[0,0,1]。如果图像是猫,y_true将是[0,1,0]。如果您的图像是熊,您的分类器将会混淆......

至于损失函数,通常你会以某种方式计算每个y_pred离相应y_true的距离,并总结批次中的所有差异。这导致一个数字代表批次的总损失。

Keras设置很好,可以为您处理丢失功能。如果您有模型,则调用model.compile(loss='some_loss_fxn_here', optimizer='some_optimizer_here')并指定要用作字符串的损失函数。您可能希望使用'categorical_crossentropy'

考虑到你提出问题的方式,你可能需要在担心所有这些问题之前创建一个模型。

您可以尝试这样的事情:

from keras.models import Sequential, Model
from keras.layers import Conv2D, MaxPooling2D, Dense, Flatten, Dropout
from keras.layers.normalization import BatchNormalization

def conv_block(x, depth, filt_shape=(3,3), padding='same', act='relu'):
    x = Conv2D(depth, filt_shape, padding=padding, activation=act)(x)
    x = BatchNormalization()(x)
    pool_filt, pool_stride = (2,2), (2,2)
    return MaxPooling2D(pool_filt, strides=pool_stride, padding='same')(x)

# Don't forget to preprocess your images!
inputs = Input(shape(299,299,3))
layer1 = conv_block(inputs, 64) # shape = [batch_size,150,150,64]
layer1 = Dropout(.05)(layer1) # Note early dropout should be low
layer2 = conv_block(layer1, 64) # shape = [batch_size,75,75,64]
layer2 = Dropout(.1)(layer2)
layer3 = conv_block(layer2, 64) # shape = [batch_size,38,38,64]
layer3 = Dropout(.2)(layer3)
layer4 = conv_block(layer3, 64) # shape = [batch_size,19,19,64]
layer4 = Dropout(.25)(layer4)
layer5 = conv_block(layer4, 64) # shape = [batch_size,10,10,30]

flat_layer = Flatten()(layer5) # shape = [batch_size, 3000]
flat_layer = Dropout(.4)(flat_layer)

def dense_block(x, output_dim, act='relu'):
    x = Dense(output_dim, activation=act)(x)
    return BatchNormalization()(x)

layer6 = dense_block(flat_layer, 300)
layer7 = dense_block(layer6, 50)

n_labels = 10 # change this number depending on the number of image classes
outputs = dense_block(layer7, n_labels, 'softmax')

model = Model(inputs=inputs, outputs=outputs)
model.compile(loss='categorical_crossentropy', optimizer='adam')

# Be sure to make your own images and y_trues arrays!
model.fit(x=images,y=y_trues,batch_size=124)

如果这些都没有帮助,请查看教程或尝试fast.ai课程。 fast.ai课程可能是世界上最好的课程,所以我要说从那里开始。