为什么神经网络会预测所有输入为负?

时间:2018-08-28 14:42:08

标签: python neural-network keras prediction sentiment-analysis

我正在使用word2vec作为嵌入方法在python中进行情感分析项目。 (在我的NON_ENGLISH语料库中,我考虑了每个带有0标签的正向推文,正向= 1,中立= 2)由于我在这个领域真的很新,所以我不知道为什么我的模型会预测所有负向的东西。我在网上冲浪之前,读过一些有关此错误的隐藏层数和批次数等信息,但是我不确定我是否正确理解。 这是我的keras模型:

model = Sequential()
model.add(Conv1D(32, kernel_size=3, activation='elu', 
padding='same', input_shape= 
(max_tweet_length,vector_size)))
model.add(Conv1D(32, kernel_size=3, activation='elu', 
padding='same'))
model.add(Conv1D(32, kernel_size=3, activation='elu', 
padding='same'))
model.add(Conv1D(32, kernel_size=3, activation='elu', 
padding='same'))
model.add(Dropout(0.25))
model.add(Conv1D(32, kernel_size=2, activation='elu', 
padding='same'))
model.add(Conv1D(32, kernel_size=2, activation='elu', 
padding='same'))
model.add(Conv1D(32, kernel_size=2, activation='elu', 
padding='same'))
model.add(Conv1D(32, kernel_size=2, activation='elu', 
padding='same'))
model.add(Dropout(0.25))
model.add(Dense(256, activation='tanh'))
model.add(Dense(256, activation='tanh'))
model.add(Dropout(0.5))
model.add(Flatten())
model.add(Dense(2, activation='sigmoid'))

非常感谢!

0 个答案:

没有答案