我正在努力确保我使用正确的术语。下图显示了MNIST示例
X is 784 row vector
W is 784X10 matrix
b is a 10 row vector
The out of the linear box is fead into softmax
The output of softmax is fed into the distance function cross-entropy
这个NN中有多少层?该示例中的input
和hidden
图层是什么?
同样,this answer中有多少图层如果我的理解是正确的,那么3
图层?
修改
@lejlot下面是否代表3层NN,有1个隐藏层?
答案 0 :(得分:2)
看看这张照片:
http://cs231n.github.io/assets/nn1/neural_net.jpeg
在你的第一张照片中,你只有两层:
您的模型太简单了(w包含输入和输出之间的直接连接,b包含偏差项)。
没有隐藏层,您将获得线性分类器,因为线性组合的线性组合再次是线性组合。隐藏图层包含模型中的非线性变换。
在你的第二张照片中,你有3层,但你对这个符号感到困惑:
编辑:
还有一件事,如果你想获得一个非线性分类器,你必须在每个隐藏层中添加一个非线性变换,在我所描述的例子中,如果f()是一个非线性函数(例如sigmoid, softsign,...): Z = F(XW1 + B1)
如果仅在输出层(最后的softmax函数)中添加非线性变换,则输出仍然是线性分类器。
答案 1 :(得分:0)
它有1个隐藏层。
你链接的答案,我会称之为隐藏的NN层。
您的输入图层是X向量。 您的图层Wx + b是隐藏图层,也就是说。你图片中的方框。 输出层是Soft-max。 交叉熵是您的损失/成本函数,根本不是一个层。