秒到底的密集层应该是什么?

时间:2017-08-05 06:20:26

标签: python keras conv-neural-network

在线查看Keras CNN示例时,我总是看到最后两层是完全连接的层,如...

lexeme

我理解最后一个Dense层以及该数字为3的事实,因为在这种特定情况下,这是可供选择的类的数量。

我不明白为什么倒数第二层的第二层是64.有时它是64,或128或512.

我的问题是model.add(Flatten()) model.add(Dense(64)) model.add(Activation('relu')) model.add(Dropout(0.5)) model.add(Dense(3)) 中的64是什么意思以及决定这个数字的是什么?

1 个答案:

答案 0 :(得分:2)

64是该层中神经元的数量。为什么64?没有"确切的"隐藏层中神经元数量的规则。可能是调整参数的结果,或选择它是因为他们的机器不能运行100个神经元或其他东西。

当您创建神经网络时,图层中的神经元数量是您应调整以找到最佳结果的众多超参数之一。还有隐藏层的数量(不要问为什么有1个完全连接的隐藏层?)或激活功能。

我已从https://stats.stackexchange.com/a/1097/105981读取:' 隐藏图层的最佳大小通常介于输入大小和输出图层大小之间&# 39;但是在很多情况下,我曾经做过,但这并没有发生