我正在尝试使用递归神经网络(LSTM)对来自书籍的数据集进行文本预测。无论我尝试更改图层大小或其他参数有多少,它总是会过拟合。
我一直在尝试更改层数,LSTM层中的单位数,正则化,规范化,batch_size,混洗训练数据/验证数据,将数据集更改为更大。现在,我尝试使用〜140kb txt图书。我还尝试了200kb,1mb,5mb。
创建训练/验证数据:
sequence_length = 30
x_data = []
y_data = []
for i in range(0, len(text) - sequence_length, 1):
x_sequence = text[i:i + sequence_length]
y_label = text[i + sequence_length]
x_data.append([char2idx[char] for char in x_sequence])
y_data.append(char2idx[y_label])
X = np.reshape(x_data, (data_length, sequence_length, 1))
X = X/float(vocab_length)
y = np_utils.to_categorical(y_data)
# Split into training and testing set, shuffle data
X_train, X_test, y_train, y_test = train_test_split(X,y, test_size=0.2, shuffle=False)
# Shuffle testing set
X_test, y_test = shuffle(X_test, y_test, random_state=0)
创建模型:
model = Sequential()
model.add(LSTM(256, input_shape=(X.shape[1], X.shape[2]), return_sequences=True, recurrent_initializer='glorot_uniform', recurrent_dropout=0.3))
model.add(LSTM(256, return_sequences=True, recurrent_initializer='glorot_uniform', recurrent_dropout=0.3))
model.add(LSTM(256, recurrent_initializer='glorot_uniform', recurrent_dropout=0.3))
model.add(Dropout(0.2))
model.add(Dense(y.shape[1], activation='softmax'))
model.compile(loss='categorical_crossentropy', optimizer='adam', metrics=['accuracy'])
我不知道如何解决这种过度拟合问题,因为我正在搜索互联网,尝试了许多尝试,但似乎都没有用。
如何获得更好的结果?这些预测目前似乎并不理想。
答案 0 :(得分:1)
以下是我接下来要尝试的一些方法。 (我也是业余爱好者。如果我做错了,请纠正我)