Keras中的RMSE / RMSLE损失函数

时间:2017-05-08 18:49:57

标签: python keras custom-function loss-function

我尝试参加我的第一场Kaggle比赛,其中RMSLE被作为所需的损失函数。因为我没有发现如何实现这个loss function我试图解决RMSE。我知道这是Keras过去的一部分,有没有办法在最新版本中使用它,可能通过backend定制功能?

这是我设计的NN:

from keras.models import Sequential
from keras.layers.core import Dense , Dropout
from keras import regularizers

model = Sequential()
model.add(Dense(units = 128, kernel_initializer = "uniform", activation = "relu", input_dim = 28,activity_regularizer = regularizers.l2(0.01)))
model.add(Dropout(rate = 0.2))
model.add(Dense(units = 128, kernel_initializer = "uniform", activation = "relu"))
model.add(Dropout(rate = 0.2))
model.add(Dense(units = 1, kernel_initializer = "uniform", activation = "relu"))
model.compile(optimizer = "rmsprop", loss = "root_mean_squared_error")#, metrics =["accuracy"])

model.fit(train_set, label_log, batch_size = 32, epochs = 50, validation_split = 0.15)

我尝试了一个我在GitHub上找到的自定义root_mean_squared_error函数,但据我所知,语法不是必需的。我认为y_truey_pred必须在传递给返回之前定义,但我不知道究竟是什么,我刚开始使用python中的编程,而且我在数学方面确实不是那么好。 ..

from keras import backend as K

def root_mean_squared_error(y_true, y_pred):
        return K.sqrt(K.mean(K.square(y_pred - y_true), axis=-1)) 

我使用此功能收到以下错误:

ValueError: ('Unknown loss function', ':root_mean_squared_error')

感谢您的想法,我感谢您的一切帮助!

6 个答案:

答案 0 :(得分:27)

当你使用自定义丢失时,你需要在没有引号的情况下放置它,因为你传递了函数对象,而不是字符串:

def root_mean_squared_error(y_true, y_pred):
        return K.sqrt(K.mean(K.square(y_pred - y_true))) 

model.compile(optimizer = "rmsprop", loss = root_mean_squared_error, 
              metrics =["accuracy"])

答案 1 :(得分:17)

根据以下问题,接受的答案包含错误,导致RMSE实际上是MAE:

https://github.com/keras-team/keras/issues/10706

正确的定义应该是

def root_mean_squared_error(y_true, y_pred):
        return K.sqrt(K.mean(K.square(y_pred - y_true)))

答案 2 :(得分:2)

我更喜欢重用Keras的工作

from keras.losses import mean_squared_error

def root_mean_squared_error(y_true, y_pred):
    return K.sqrt(mean_squared_error(y_true, y_pred))

model.compile(optimizer = "rmsprop", loss = root_mean_squared_error, 
          metrics =["accuracy"])

答案 3 :(得分:2)

您可以按照在其他答案中显示RMSE的相同方式执行RMSLE,您还需要合并log函数:

from tensorflow.keras import backend as K

def root_mean_squared_log_error(y_true, y_pred):
    return K.sqrt(K.mean(K.square(K.log(1+y_pred) - K.log(1+y_true))))

答案 4 :(得分:0)

如果每晚使用最新的tensorflow,尽管文档中没有RMSE,但source code中有tf.keras.metrics.RootMeanSquaredError()

示例用法:

model.compile(tf.compat.v1.train.GradientDescentOptimizer(learning_rate),
              loss=tf.keras.metrics.mean_squared_error,
              metrics=[tf.keras.metrics.RootMeanSquaredError(name='rmse')])

答案 5 :(得分:0)

RMSLE的简化版本:

import tensorflow as tf
import tensorflow.keras.backend as K

def rmsle_custom(y_true, y_pred):
    msle = tf.keras.losses.MeanSquaredLogarithmicError()
    return K.sqrt(msle(y_true, y_pred))