keras损失历史记录未报告所有纪元

时间:2020-07-30 18:56:34

标签: python keras neural-network lstm recurrent-neural-network

因此,我正在使用生成器执行LSTM,并且在运行模型后,我想使用历史记录来绘制训练数据的损失图。当我这样做时,我觉得应该报告每个时期的损失,但是损失数组的长度比我想知道的时期数短得多,这是否与生成器中的批量大小有关? 这是我的代码,

n_steps=1
n_features=1
batches=10

model = keras.Sequential()
model.add( tf.keras.layers.LSTM(50, activation='relu', input_shape=(n_steps, n_features)))
model.add(tf.keras.layers.Dense(1))#maybe make y the next 14 timesteps instead of one
model.compile(optimizer='adam', loss='mse')

steps=len(train_temp)/batches

history=model.fit_generator(e,steps_per_epoch=steps, epochs=100, verbose=1)
history.history['loss']

然后得出10个数字

0 个答案:

没有答案