减小Keras LSTM型号的尺寸

时间:2018-05-07 04:46:09

标签: python machine-learning keras lstm recurrent-neural-network

基本上,我正在使用Keras训练LSTM模型,但是当我保存它时,它的大小需要100MB。但是,我的模型的目的是部署到Web服务器以作为API,我的Web服务器无法运行它,因为模型大小太大。在分析了模型中的所有参数后,我发现我的模型具有20,000,000个参数,但15,000,000参数未经过培训,因为它们是字嵌入。有没有办法可以通过删除15,000,000参数但仍然保留模型的性能来最小化模型的大小? 这是我的模型代码:

def LSTModel(input_shape, word_to_vec_map, word_to_index):


    sentence_indices = Input(input_shape, dtype="int32")

    embedding_layer = pretrained_embedding_layer(word_to_vec_map, word_to_index)


    embeddings = embedding_layer(sentence_indices)


    X = LSTM(256, return_sequences=True)(embeddings)
    X = Dropout(0.5)(X)
    X = LSTM(256, return_sequences=False)(X)
    X = Dropout(0.5)(X)    
    X = Dense(NUM_OF_LABELS)(X)
    X = Activation("softmax")(X)

    model = Model(inputs=sentence_indices, outputs=X)

    return model

1 个答案:

答案 0 :(得分:2)

定义要在函数外部保存的图层并命名它们。然后创建两个函数foo()bar()foo()将包含原始管道,包括嵌入层。 bar()只有嵌入图层后的管道部分。相反,您将在Input()中定义具有嵌入尺寸的新bar()图层:

lstm1 = LSTM(256, return_sequences=True, name='lstm1')
lstm2 = LSTM(256, return_sequences=False, name='lstm2')
dense = Dense(NUM_OF_LABELS, name='Susie Dense')

def foo(...):
    sentence_indices = Input(input_shape, dtype="int32")
    embedding_layer = pretrained_embedding_layer(word_to_vec_map, word_to_index)
    embeddings = embedding_layer(sentence_indices)
    X = lstm1(embeddings)
    X = Dropout(0.5)(X)
    X = lstm2(X)
    X = Dropout(0.5)(X)    
    X = dense(X)
    X = Activation("softmax")(X)
    return Model(inputs=sentence_indices, outputs=X)


def bar(...):
    embeddings = Input(embedding_shape, dtype="float32")
    X = lstm1(embeddings)
    X = Dropout(0.5)(X)
    X = lstm2(X)
    X = Dropout(0.5)(X)    
    X = dense(X)
    X = Activation("softmax")(X)
    return Model(inputs=sentence_indices, outputs=X)

foo_model = foo(...)
bar_model = bar(...)

foo_model.fit(...)
bar_model.save_weights(...)

现在,您将训练原始的foo()模型。然后,您可以保存缩小的bar()模型的权重。加载模型时,请不要忘记指定by_name=True参数:

foo_model.load_weights('bar_model.h5', by_name=True)