我正在使用word2vec作为嵌入方法在python中进行情感分析项目。 (在我的NON_ENGLISH语料库中,我考虑了每个带有0标签的正向推文,正向= 1,中立= 2)由于我在这个领域真的很新,所以我不知道为什么我的模型会预测所有负向的东西。我在网上冲浪之前,读过一些有关此错误的隐藏层数和批次数等信息,但是我不确定我是否正确理解。 这是我的keras模型:
model = Sequential()
model.add(Conv1D(32, kernel_size=3, activation='elu',
padding='same', input_shape=
(max_tweet_length,vector_size)))
model.add(Conv1D(32, kernel_size=3, activation='elu',
padding='same'))
model.add(Conv1D(32, kernel_size=3, activation='elu',
padding='same'))
model.add(Conv1D(32, kernel_size=3, activation='elu',
padding='same'))
model.add(Dropout(0.25))
model.add(Conv1D(32, kernel_size=2, activation='elu',
padding='same'))
model.add(Conv1D(32, kernel_size=2, activation='elu',
padding='same'))
model.add(Conv1D(32, kernel_size=2, activation='elu',
padding='same'))
model.add(Conv1D(32, kernel_size=2, activation='elu',
padding='same'))
model.add(Dropout(0.25))
model.add(Dense(256, activation='tanh'))
model.add(Dense(256, activation='tanh'))
model.add(Dropout(0.5))
model.add(Flatten())
model.add(Dense(2, activation='sigmoid'))
非常感谢!