了解隐藏层,感知器,MLP

时间:2019-01-29 03:26:56

标签: machine-learning neural-network embedding perceptron mlp

我是AI的新手,我试图理解感知器,隐藏层,MLP等的概念。

在下面的代码中,我想了解我们总共有多少层,包括输入和输出,隐藏层的数量

embed_layer = Embedding(vocab_size,embed_dim,weights = 
[embedding_matrix],trainable=trainable_param)

input_seq = Input(shape=(X_train_pad.shape[1],))
embed_seq = embed_layer(input_seq)
x = Dense(256,activation ="relu")(embed_seq)
x = Flatten()(x)
preds = Dense(1,activation="sigmoid")(x)

model = Model(input_seq,preds)

下面是模型的摘要

Model summary with layers output details

1 个答案:

答案 0 :(得分:0)

您可以在此处找到一个不错的示例来解释摘要: https://machinelearningmastery.com/visualize-deep-learning-neural-network-model-keras/

在您的情况下,您具有输入层(基本上只重塑输入的形状),3个隐藏层(embedding_5-dense_9-flatten_5)和输出层(dense_10)。