验证损失缓慢增加且 val_acc 恒定。 LSTM 模型。准确率也低

时间:2021-07-29 10:21:17

标签: keras lstm sequential loss relu

我有这个模型。我已经注释掉了所有的 dropout 层。我的 val_loss 正在缓慢但不断地增加。我的 val_acc 也保持不变。 我什至没有得到好的 Training_acc。我有 31 个用于训练的文件和 9 个用于验证的文件。数量较少,但文件大小很大。 使用 1000 个 epoch,我得到了 51.13548288941383 % 的准确率 26.544444932788608 % val_accuracy classifier.evaluate('for validation') 结果损失:7.5632 - 准确度:0.2222

训练的第一个时期是 纪元 1/1000 1/1 [==============================] - 6s 6s/步 - 损失:1.6574 - 准确度:0.2258 - val_loss :1.4020 - val_accuracy:0.2222

classifier = Sequential()classifier.add(LSTM(units=128, return_sequences=True, dropout=0.0,input_shape = (3257, 715) ))classifier.add(LSTM(units=64, return_sequences=True, dropout =0.0))classifier.add(LSTM(units=32, return_sequences=False, dropout=0.0))classifier.add(Dense(32, activation='relu',kernel_regularizer=regularizers.l1_l2(l1=1e-5, l2) =1e-4), bias_regularizer=regularizers.l2(1e-4), activity_regularizer=regularizers.l2(1e-5)))classifier.add(BatchNormalization()) #classifier.add((Dropout(0.1)))classifier.add(Dense(64,activation='relu'))classifier.add(BatchNormalization()) #classifier.add((Dropout(0.9)))classifier.add(Dense(128,activation='relu'))classifier.add(BatchNormalization()) #classifier.add((Dropout(0.9)))classifier.add(Dense(64,activation='relu'))classifier.add(BatchNormalization()) #classifier.add((Dropout(0.9)))classifier.add(Dense(32, activation='relu', kernel_regularizer=regularizers.l1_l2(l1=1e-5, l2=1e-4), bias_regularizer=regularizers.l2(1e-4), activity_regularizer=regularizers.l2(1e-5)))classifier.add(BatchNormalization()) #classifier.add((Dropout(0.1)))classifier.add(Dense(4, activation='softmax'))

[

plt.plot(history8.history['accuracy'], color = 'blue')
plt.plot(history8.history['loss'], color = 'red')
plt.plot(history8.history['val_accuracy'], color = 'green')
plt.plot(history8.history['val_loss'], color = 'black')

]1

0 个答案:

没有答案