如何返回Keras中验证丢失的历史记录

时间:2016-04-30 08:45:51

标签: python neural-network nlp deep-learning keras

使用Anaconda Python 2.7 Windows 10。

我正在使用Keras exmaple训练语言模型:

print('Build model...')
model = Sequential()
model.add(GRU(512, return_sequences=True, input_shape=(maxlen, len(chars))))
model.add(Dropout(0.2))
model.add(GRU(512, return_sequences=False))
model.add(Dropout(0.2))
model.add(Dense(len(chars)))
model.add(Activation('softmax'))

model.compile(loss='categorical_crossentropy', optimizer='rmsprop')

def sample(a, temperature=1.0):
    # helper function to sample an index from a probability array
    a = np.log(a) / temperature
    a = np.exp(a) / np.sum(np.exp(a))
    return np.argmax(np.random.multinomial(1, a, 1))


# train the model, output generated text after each iteration
for iteration in range(1, 3):
    print()
    print('-' * 50)
    print('Iteration', iteration)
    model.fit(X, y, batch_size=128, nb_epoch=1)
    start_index = random.randint(0, len(text) - maxlen - 1)

    for diversity in [0.2, 0.5, 1.0, 1.2]:
        print()
        print('----- diversity:', diversity)

        generated = ''
        sentence = text[start_index: start_index + maxlen]
        generated += sentence
        print('----- Generating with seed: "' + sentence + '"')
        sys.stdout.write(generated)

        for i in range(400):
            x = np.zeros((1, maxlen, len(chars)))
            for t, char in enumerate(sentence):
                x[0, t, char_indices[char]] = 1.

            preds = model.predict(x, verbose=0)[0]
            next_index = sample(preds, diversity)
            next_char = indices_char[next_index]

            generated += next_char
            sentence = sentence[1:] + next_char

            sys.stdout.write(next_char)
            sys.stdout.flush()
        print()

根据Keras文档,model.fit方法返回历史回调,其历史属性包含连续损失和其他指标的列表。

hist = model.fit(X, y, validation_split=0.2)
print(hist.history)

训练我的模型后,如果我运行print(model.history),我会收到错误:

 AttributeError: 'Sequential' object has no attribute 'history'

如何使用上述代码训练模型后如何返回模型历史记录?

更新

问题在于:

必须首先定义以下内容:

from keras.callbacks import History 
history = History()

必须调用回调选项

model.fit(X_train, Y_train, nb_epoch=5, batch_size=16, callbacks=[history])

但现在如果我打印

print(history.History)

它返回

{}

即使我运行了一次迭代。

10 个答案:

答案 0 :(得分:20)

它已经解决了。

损失只能在历史上保存到历史。我正在运行迭代,而不是使用内置时代选项的Keras。

所以我现在没有进行4次迭代

model.fit(......, nb_epoch = 4)

现在它返回每个纪元运行的损失:

print(hist.history)
{'loss': [1.4358016599558268, 1.399221191623641, 1.381293383180471, h1.3758836857303727]}

答案 1 :(得分:19)

仅从

开始的一个例子
hotel_code

您可以使用

history = model.fit(X, Y, validation_split=0.33, nb_epoch=150, batch_size=10, verbose=0)

列出历史记录中的所有数据。

然后,您可以打印验证丢失的历史记录:

print(history.history.keys())

答案 2 :(得分:5)

具有" acc"," loss"等历史的词典可用并保存在hist.history变量中。

答案 3 :(得分:5)

以下简单代码对我很有用:

    seqModel =model.fit(x_train, y_train,
          batch_size      = batch_size,
          epochs          = num_epochs,
          validation_data = (x_test, y_test),
          shuffle         = True,
          verbose=0, callbacks=[TQDMNotebookCallback()]) #for visualization

确保将fit函数指定给输出变量。然后,您可以非常轻松地访问该变量

# visualizing losses and accuracy
train_loss = seqModel.history['loss']
val_loss   = seqModel.history['val_loss']
train_acc  = seqModel.history['acc']
val_acc    = seqModel.history['val_acc']
xc         = range(num_epochs)

plt.figure()
plt.plot(xc, train_loss)
plt.plot(xc, val_loss)

希望这会有所帮助。 来源:https://keras.io/getting-started/faq/#how-can-i-record-the-training-validation-loss-accuracy-at-each-epoch

答案 4 :(得分:2)

另一个选项是CSVLogger:https://keras.io/callbacks/#csvlogger。 它创建一个附加每个纪元结果的csv文件。即使你中断训练,你也会看到它是如何进化的。

答案 5 :(得分:2)

我还发现你可以使用verbose=2让keras打印出损失:

history = model.fit(X, Y, validation_split=0.33, nb_epoch=150, batch_size=10, verbose=2)

这会打印出这样漂亮的线条:

Epoch 1/1
 - 5s - loss: 0.6046 - acc: 0.9999 - val_loss: 0.4403 - val_acc: 0.9999

根据他们的documentation

verbose: 0, 1, or 2. Verbosity mode. 0 = silent, 1 = progress bar, 2 = one line per epoch.

答案 6 :(得分:1)

像我这样仍然出错的人:

model.fit_generator()转换为 model.fit()

答案 7 :(得分:0)

实际上,您也可以使用迭代方法来完成。因为有时我们可能需要使用迭代方法而不是内置的epochs方法来在每次迭代后可视化训练结果。

history = [] #Creating a empty list for holding the loss later
for iteration in range(1, 3):
    print()
    print('-' * 50)
    print('Iteration', iteration)
    result = model.fit(X, y, batch_size=128, nb_epoch=1) #Obtaining the loss after each training
    history.append(result.history['loss']) #Now append the loss after the training to the list.
    start_index = random.randint(0, len(text) - maxlen - 1)
print(history)

这种方式可以让您在维护迭代方法的同时获得所需的损失。

答案 8 :(得分:0)

要直接绘制损耗,请执行以下操作:

model.fit(X, Y, epochs= ... )
plt.plot(list(model.history.history.values())[0],'k-o')

答案 9 :(得分:0)

感谢Alloush,

以下参数必须包含在model.fit()中:

validation_data = (x_test, y_test)

如果未定义,则val_accval_loss将不会 在输出端存在。