神经网络中的规则

时间:2019-06-09 18:23:06

标签: neural-network deep-learning recurrent-neural-network

神经网络中有一些规则

A:输入层桅杆中的神经元与输入要素的数量相同

批次大小是从训练数据的第一个循环输入模型的大小。因此,神经元应等于批量大小。为什么等于输入要素的数量。

我还检查了将随机数量的神经元输入输入层是否可行。

B:如何预测一个好的模型 例如,在回归问题中-我损失了mse并损失了验证损失。验证损失将比好模型的损失略高(正如我从研究门的问答中读取的那样)。但是多少变化是好的。

谢谢

1 个答案:

答案 0 :(得分:0)

A:网络第一层中神经元的数量不必等于批处理大小或要素的数量。如果您的模型中有更多的神经元,那么您的模型将具有更高的复杂性。

B:有许多方法可以衡量模型的性能。一种方法是将我们的数据集分为训练和验证集。然后,我们在训练数据上训练我们的网络。在训练过程中,我们会在训练和验证集上测量诸如MSE(均方误差)之类的损失指标。一旦绘制了两组的损耗/历元,就可以解释该图以查看模型是否经过适当训练。