我尝试参加我的第一场Kaggle比赛,其中RMSLE
被作为所需的损失函数。因为我没有发现如何实现这个loss function
我试图解决RMSE
。我知道这是Keras
过去的一部分,有没有办法在最新版本中使用它,可能通过backend
定制功能?
这是我设计的NN:
from keras.models import Sequential
from keras.layers.core import Dense , Dropout
from keras import regularizers
model = Sequential()
model.add(Dense(units = 128, kernel_initializer = "uniform", activation = "relu", input_dim = 28,activity_regularizer = regularizers.l2(0.01)))
model.add(Dropout(rate = 0.2))
model.add(Dense(units = 128, kernel_initializer = "uniform", activation = "relu"))
model.add(Dropout(rate = 0.2))
model.add(Dense(units = 1, kernel_initializer = "uniform", activation = "relu"))
model.compile(optimizer = "rmsprop", loss = "root_mean_squared_error")#, metrics =["accuracy"])
model.fit(train_set, label_log, batch_size = 32, epochs = 50, validation_split = 0.15)
我尝试了一个我在GitHub上找到的自定义root_mean_squared_error
函数,但据我所知,语法不是必需的。我认为y_true
和y_pred
必须在传递给返回之前定义,但我不知道究竟是什么,我刚开始使用python中的编程,而且我在数学方面确实不是那么好。 ..
from keras import backend as K
def root_mean_squared_error(y_true, y_pred):
return K.sqrt(K.mean(K.square(y_pred - y_true), axis=-1))
我使用此功能收到以下错误:
ValueError: ('Unknown loss function', ':root_mean_squared_error')
感谢您的想法,我感谢您的一切帮助!
答案 0 :(得分:27)
当你使用自定义丢失时,你需要在没有引号的情况下放置它,因为你传递了函数对象,而不是字符串:
def root_mean_squared_error(y_true, y_pred):
return K.sqrt(K.mean(K.square(y_pred - y_true)))
model.compile(optimizer = "rmsprop", loss = root_mean_squared_error,
metrics =["accuracy"])
答案 1 :(得分:17)
根据以下问题,接受的答案包含错误,导致RMSE实际上是MAE:
https://github.com/keras-team/keras/issues/10706
正确的定义应该是
def root_mean_squared_error(y_true, y_pred):
return K.sqrt(K.mean(K.square(y_pred - y_true)))
答案 2 :(得分:2)
我更喜欢重用Keras的工作
from keras.losses import mean_squared_error
def root_mean_squared_error(y_true, y_pred):
return K.sqrt(mean_squared_error(y_true, y_pred))
model.compile(optimizer = "rmsprop", loss = root_mean_squared_error,
metrics =["accuracy"])
答案 3 :(得分:2)
您可以按照在其他答案中显示RMSE的相同方式执行RMSLE,您还需要合并log函数:
from tensorflow.keras import backend as K
def root_mean_squared_log_error(y_true, y_pred):
return K.sqrt(K.mean(K.square(K.log(1+y_pred) - K.log(1+y_true))))
答案 4 :(得分:0)
如果每晚使用最新的tensorflow,尽管文档中没有RMSE,但source code中有tf.keras.metrics.RootMeanSquaredError()
。
示例用法:
model.compile(tf.compat.v1.train.GradientDescentOptimizer(learning_rate),
loss=tf.keras.metrics.mean_squared_error,
metrics=[tf.keras.metrics.RootMeanSquaredError(name='rmse')])
答案 5 :(得分:0)
RMSLE的简化版本:
import tensorflow as tf
import tensorflow.keras.backend as K
def rmsle_custom(y_true, y_pred):
msle = tf.keras.losses.MeanSquaredLogarithmicError()
return K.sqrt(msle(y_true, y_pred))