MSE损失函数计算

时间:2020-07-28 22:58:58

标签: tensorflow keras lstm seq2seq

我使用MSE作为损失函数(model.compile(loss="mse", optimizer="adam"),使用形状为[30,26]的输入采样和形状为[1,7]的输入采样训练了seq2seq网络。但是,当我将history.history['loss']keras_error = tf.keras.losses.MSE(predictions_train, data_train)(返回我平均的错误数组),结果相差约0.2。非常感谢您对如何为这样的输出序列计算MSE损失函数的见解!

1 个答案:

答案 0 :(得分:0)

MSE损失的计算方法相同。 x和y都有7个值。双方彼此相减,然后平方,然后除以7。之所以会出现这样的值,可能是因为model.compile在使用tf.keras.losses.MeanSquaredError时正在使用另一个函数。由于这种原因,可能会出现这种差异。但是,最终的结果是网络的性能,是实现目标吗?