Keras密集功能

时间:2019-03-15 14:18:33

标签: keras

有人可以向我解释一下吗

model.add(Dense(units=64, activation='relu', input_dim=100))

模型中的添加层是否密集,特定层中神经元的数量是否增加单位?activation参数后面的原因是什么?

1 个答案:

答案 0 :(得分:0)

是的,您可以在网络中添加常规的密集连接层。正如您所说,单位指定了该层中神经元的数量。也许请参阅https://keras.io/了解更多信息。

激活参数定义该层中的单元使用的激活功能。此函数将神经元的所有输入之和作为输入,并通过该单元的输出进行计算(然后进入下一个单元/层)。对于'relu',基本上是 f(x)= max(x,0),其中x是所有输入的总和,而f(x)是输出的总和。