因此,我正在使用生成器执行LSTM,并且在运行模型后,我想使用历史记录来绘制训练数据的损失图。当我这样做时,我觉得应该报告每个时期的损失,但是损失数组的长度比我想知道的时期数短得多,这是否与生成器中的批量大小有关? 这是我的代码,
n_steps=1
n_features=1
batches=10
model = keras.Sequential()
model.add( tf.keras.layers.LSTM(50, activation='relu', input_shape=(n_steps, n_features)))
model.add(tf.keras.layers.Dense(1))#maybe make y the next 14 timesteps instead of one
model.compile(optimizer='adam', loss='mse')
steps=len(train_temp)/batches
history=model.fit_generator(e,steps_per_epoch=steps, epochs=100, verbose=1)
history.history['loss']
然后得出10个数字