我使用MSE作为损失函数(model.compile(loss="mse", optimizer="adam"
),使用形状为[30,26]的输入采样和形状为[1,7]的输入采样训练了seq2seq网络。但是,当我将history.history['loss']
与
keras_error = tf.keras.losses.MSE(predictions_train, data_train)
(返回我平均的错误数组),结果相差约0.2。非常感谢您对如何为这样的输出序列计算MSE损失函数的见解!
答案 0 :(得分:0)
MSE损失的计算方法相同。 x和y都有7个值。双方彼此相减,然后平方,然后除以7。之所以会出现这样的值,可能是因为model.compile
在使用tf.keras.losses.MeanSquaredError
时正在使用另一个函数。由于这种原因,可能会出现这种差异。但是,最终的结果是网络的性能,是实现目标吗?