例如,如果我正在进行图像预测并且我的网络输出是张量形状[299, 299, 3]
,我该如何编写损失函数loss(y_true, y_pred)
。我应该期望y_true
和y_pred
具有形状[batch_size, 299, 299, 3]
并将损失函数的输出设置为形状[batch_size]
或其他形状的数组吗?
答案 0 :(得分:0)
编辑: 我写的第一个答案是认为你的输入是(299,299,3),而不是你的输出。我很抱歉! "图像预测"是相当模糊的,但如果你的意图是输出一个3D张量作为y_pred
,你仍然可能想要创建一个产生标量的损失函数。这是因为样本的丢失需要与所有其他样本的误差合并。联合损失允许模型推广其行为。见this wiki snippet。从本质上讲,多维损失函数相当于在随机梯度下降中将批量大小设置为1。
第一回答:
通常你希望你的损失函数输出一个数字。如果你正在进行图像分类,你几乎肯定希望你的损失函数输出一个数字。
假设"图像预测"意味着"图像分类"您的输入可能是您的图像,而y_pred
通常是一批一维数组,其长度等于可能的类数。
您的y_true
将是一批与y_pred
大小相同的one_hot编码数组。这意味着它们是长度等于图像类别数的数组。区别在于y_true
向量包含全部零,除了相应图像类别索引处的单个1。
例如,如果您的图像只是狗,猫或羊,则有3种可能的类别。让我们任意说0表示狗,1表示猫,2表示羊。然后,如果图像是绵羊,则相应的y_true
将为[0,0,1]。如果图像是猫,y_true
将是[0,1,0]。如果您的图像是熊,您的分类器将会混淆......
至于损失函数,通常你会以某种方式计算每个y_pred
离相应y_true
的距离,并总结批次中的所有差异。这导致一个数字代表批次的总损失。
Keras设置很好,可以为您处理丢失功能。如果您有模型,则调用model.compile(loss='some_loss_fxn_here', optimizer='some_optimizer_here')
并指定要用作字符串的损失函数。您可能希望使用'categorical_crossentropy'
。
考虑到你提出问题的方式,你可能需要在担心所有这些问题之前创建一个模型。
您可以尝试这样的事情:
from keras.models import Sequential, Model
from keras.layers import Conv2D, MaxPooling2D, Dense, Flatten, Dropout
from keras.layers.normalization import BatchNormalization
def conv_block(x, depth, filt_shape=(3,3), padding='same', act='relu'):
x = Conv2D(depth, filt_shape, padding=padding, activation=act)(x)
x = BatchNormalization()(x)
pool_filt, pool_stride = (2,2), (2,2)
return MaxPooling2D(pool_filt, strides=pool_stride, padding='same')(x)
# Don't forget to preprocess your images!
inputs = Input(shape(299,299,3))
layer1 = conv_block(inputs, 64) # shape = [batch_size,150,150,64]
layer1 = Dropout(.05)(layer1) # Note early dropout should be low
layer2 = conv_block(layer1, 64) # shape = [batch_size,75,75,64]
layer2 = Dropout(.1)(layer2)
layer3 = conv_block(layer2, 64) # shape = [batch_size,38,38,64]
layer3 = Dropout(.2)(layer3)
layer4 = conv_block(layer3, 64) # shape = [batch_size,19,19,64]
layer4 = Dropout(.25)(layer4)
layer5 = conv_block(layer4, 64) # shape = [batch_size,10,10,30]
flat_layer = Flatten()(layer5) # shape = [batch_size, 3000]
flat_layer = Dropout(.4)(flat_layer)
def dense_block(x, output_dim, act='relu'):
x = Dense(output_dim, activation=act)(x)
return BatchNormalization()(x)
layer6 = dense_block(flat_layer, 300)
layer7 = dense_block(layer6, 50)
n_labels = 10 # change this number depending on the number of image classes
outputs = dense_block(layer7, n_labels, 'softmax')
model = Model(inputs=inputs, outputs=outputs)
model.compile(loss='categorical_crossentropy', optimizer='adam')
# Be sure to make your own images and y_trues arrays!
model.fit(x=images,y=y_trues,batch_size=124)
如果这些都没有帮助,请查看教程或尝试fast.ai课程。 fast.ai课程可能是世界上最好的课程,所以我要说从那里开始。