我目前正在研究神经网络理论,我发现它写的所有地方都包含以下几层:
我看到一些图形描述将输入图层显示为网络中的真实节点,而其他图形描述则将此图层显示为值的向量 [x1,x2,... xn]
正确的结构是什么?
"输入层"一层真正的神经元?或者这只是抽象地命名为图层,而它实际上只是输入向量?
添加我在网络上发现的矛盾和令人困惑的照片:
这里看起来输入层由神经元组成:
这里看起来输入图层只是一个输入向量:
答案 0 :(得分:3)
"输入层"一层真正的神经元?或者这只是抽象地命名为图层,而它实际上只是输入向量?
是的,它是两者 - 取决于抽象。在纸面上,网络具有输入神经元。在实现级别,你必须组织这些数据(通常使用数组/向量),这就是你说输入向量的原因:
输入向量保存输入神经元值(表示输入层)。
如果您熟悉图论或图像处理的基础知识 - 它的原理相同。例如,您可以将图像称为矩阵(技术视图)或像素字段(更抽象的视图)。
答案 1 :(得分:2)
让我用一些数学符号来回答你的问题,这些符号会比随机图像更容易理解。首先,请记住Perceptron。
Perceptron的任务是找到一个决策函数,将给定集合中的某些点分类为n个类。所以,对于一个函数
f : R^n -> R , f(X) = <W, X> + b
其中W是权重向量,X是点向量。例如,如果您有一个由等式3x + y = 0
定义的行,则W为(3,1)
,X为(x,y)
。
神经网络可以被认为是一个图形,其中图形的每个顶点都是一个简单的感知器 - 也就是说,网络中的每个节点都只是一个接收某个值并输出一个新值的函数,然后用于下一个节点。在第二张图片中,这将是两个隐藏的图层。
这些节点需要什么作为输入?一组W和Xs - 重量和点向量。您的图片中的哪一个由x0, x1, .. xn
和w0, w1, .. wn
表示。
最终,我们可以得出结论,神经网络需要运作的是一组权重和点的输入向量。
我对你的总体建议是为你的学习选择一个来源并坚持下去,而不是通过互联网上的图像冲突。