我刚看到一篇文章说经验最小数是\ sqrt_ {n_ {in} + n_ {out}} + 1。 安德鲁说每个隐藏层都可以拥有相同数量的神经元。 那么,对此有什么好主意吗?
答案 0 :(得分:0)
此问题的常见解决方案是网格搜索神经网络隐藏层的多个配置,并使用验证集来比较错误率。这应该可以为您提供最可能的网络配置的合理估计,以便最好地推广到新数据。
通常,隐藏的神经元太少,不允许神经网络学习数据集中的模式。拥有太多隐藏的神经元将允许您的网络过度拟合数据集中的模式,因为它有足够的可用“内存”来学习噪声的虚假模式。