我有一个很大的数据集需要在Keras上进行训练,为了避免出现“内存错误”,我尝试使用fit_generator函数。奇怪的是,当我使用fit_generator时,损失似乎并没有改变,但是fit函数运行良好。
无论fir_gen或fit函数如何,数据集和其他代码都是相同的。
这是一个lstm-seq2seq模型。
我搜索了很长时间,发现了其他两个与我相同的问题。 1。Keras: network doesn't train with fit_generator() 根据这篇文章,我更改了batch_size,但是它不起作用。 当我尝试更改“收益率”以返回时,会抛出一个错误。 2。Keras doesn't train using fit_generator() 本文实际上没有答案。
model.fit_generator(generate_train(batch_size=200),
steps_per_epoch=5,
epochs=100,
verbose=1,
callbacks=callbacks_list,
class_weight=None,
max_queue_size=10,
workers=1,
use_multiprocessing=False,
shuffle=False,
initial_epoch=initial_epoch
)
def generate_train(batch_size):
steps=0
context_ = np.load(main_path + 'middle_data/context_indexes.npy')
final_target_ = np.load(main_path + 'middle_data/target_indexes.npy')
context_ = context_[:1000]
final_target_ = final_target_[:1000]
while True:
context = context_[steps:steps+batch_size]
final_target = final_target_[steps:steps+batch_size]
processing. . .
outs = . . .
yield [context, final_target], outs
steps += batch_size
if steps == 1000:
steps = 0
当我使用fit()时:
Epoch 1/30 loss: 2.5948 - acc: 0.0583
Epoch 2/30 loss: 2.0840 - acc: 0.0836
Epoch 3/30 loss: 1.9226 - acc: 0.0998
Epoch 4/30 loss: 1.8286 - acc: 0.1086
Epoch 5/30 loss: 1.7399 - acc: 0.1139
Epoch 6/30 loss: 1.6509 - acc: 0.1192
Epoch 7/30 loss: 1.5518 - acc: 0.1247
Epoch 8/30 loss: 1.4330 - acc: 0.1316
Epoch 9/30 loss: 1.3117 - acc: 0.1454
Epoch 10/30 loss: 1.1872 - acc: 0.1657
Epoch 11/30 loss: 1.0720 - acc: 0.1893
Epoch 12/30 loss: 0.9589 - acc: 0.2169
. . .
当我使用fit_generator()时:
Epoch 1/100 loss: 3.4926 - acc: 0.0370
Epoch 2/100 loss: 2.7239 - acc: 0.0388
Epoch 3/100 loss: 2.6030 - acc: 0.0389
Epoch 4/100 loss: 2.5727 - acc: 0.0408
Epoch 5/100 loss: 2.5628 - acc: 0.0366
Epoch 6/100 loss: 2.5513 - acc: 0.0420
Epoch 7/100 loss: 2.5475 - acc: 0.0387
Epoch 8/100 loss: 2.5508 - acc: 0.0407
Epoch 9/100 loss: 2.5490 - acc: 0.0418
Epoch 10/100 loss: 2.5419 - acc: 0.0401
答案 0 :(得分:0)
我已经找到一种解决方法。
我打印了所有以'yield'形式生成的数据,结果发现我错误地将训练数据重写了。
因此原始数据在变化,从而导致稳定的损失。