减小LSTM keras的输出尺寸

时间:2018-08-29 10:44:41

标签: python tensorflow machine-learning keras lstm

下面是我的模型架构。数据是一个时间序列,我只需要预测最后一个值,即return_sequences=False

但这正是在这里造成问题的原因。我已经可以使用sequences=True运行nnet,但这不是我需要做的。

我需要一个输入大小(32,50,88) =(批处理大小,时间步长,功能) 并获得输出大小为(32,88) = {batch_size,labels)

特征和标签的大小相同,但是无关紧要。

此代码中的错误是:

  

ValueError:检查目标时出错:预期density_1具有2维,但数组的形状为(32,50,88)

这是在培训阶段发生的(意思是该架构有效)。

数据来自生成器的(32,50,88)块,标签的大小也相同。由于我使用keras,因此需要通过生成器创建批次。我尝试添加一个(50,88),但是根本不起作用。

我如何拥有这种架构,获得(32,50,88)的输入,而仅获得(32,88)的输出?

简而言之,我需要时间步长+50的预测...我认为..

def note_model():
    visible = Input(shape=(50,88), batch_shape=(32,50,88))
    hidden1 = Bidirectional(LSTM(200, stateful=False, return_sequences=False,  kernel_regularizer=l1(10**(-4)), dropout=0.5))(visible)
    #flat = Flatten()(hidden1)
    output = Dense(88, activation='sigmoid')(hidden1)

    model = Model(inputs=visible, outputs=output)
    print(model.summary())
    return model


    def train_note_model(model):
    checkpoint_path_notes = "1Layer-200units-loss=BCE-Model-{epoch:02d}-{val_acc:.2f}.hdf5"
    model.compile(optimizer='SGD', loss='binary_crossentropy', metrics=['accuracy']) #mean_squared_error
    monitor = EarlyStopping(monitor='val_loss', min_delta=1e-3, patience=10, verbose=0, mode='min')
    reduce_lr = ReduceLROnPlateau(monitor='val_loss', factor=0.3, patience=10, min_lr=0.001)
    checkpoint = ModelCheckpoint(checkpoint_path_notes,monitor='val_loss', verbose=1, save_best_only=True, save_weights_only=False, mode='auto', period=1)
    model.fit_generator(training_generator(), steps_per_epoch=2, 
                        callbacks=[monitor, reduce_lr, checkpoint],
                        validation_data= validation_generator(), validation_steps= 2,
                        verbose=1, epochs=10, shuffle=True)

model_try = note_model()
train_note_model(model_try)

1 个答案:

答案 0 :(得分:1)

您的模型正确,问题在于检查目标时 ,这意味着您的training_generator返回的目标形状错误。

看看print(next(training_generator())),并确保它返回形状为(32, 50, 88), (32, 88)的元组。