术语时代在神经网络中意味着什么。 它与传递和迭代有何不同 什么是神经网络中使用的平均时期数
答案 0 :(得分:4)
一次向前传播和向后传播到神经网络。(数据集)
一轮将球扔进篮筐,找出错误,然后回来再改变重量。(f = ma)
用随机值初始化质量和加速度并预测输出的过程称为前向传播。
更改值并再次预测输出。(通过找出梯度)
如果我更改X(因变量)的输入,那么y(因变量)的值将被更改为渐变。
实际上,没有答案。纪元是基于数据集的,但是您可以说纪元数与数据的差异程度有关。举个例子,您的数据集中只有白老虎吗?还是数据集远不一样?
迭代是完成一个纪元所需的批处理数量。
我们可以将1000个示例的数据集分为250个批次,然后需要4次迭代才能完成1个时期。 (此处批量大小= 250,迭代次数= 4)
答案 1 :(得分:1)
反向传播的目的是找出我们的误差函数的偏导数w.r.t网络中的每个单独的权重,所以我们可以在我们的梯度下降。它为我们提供了一种计算每一层错误的方法,然后将这些错误与实际利益的数量相关联,并将其与网络中任何权重的偏导数联系起来。我们可以使用链规则来计算偏导数(即)每个权重的误差梯度。
其核心的反向传播仅仅是通过神经网络中的所有可能路径重复应用链规则。
BP所涉及的一步一步的过程是:
步骤1:接收新观察x和目标y。其中x可能是癌细胞的一些图像,其实际上是一组大量的矢量化数字(像素),Y是标记癌症。他们可能是癌症,也可能不是癌症。只要我们有标签,我们就可以进行反向传播。
步骤2:获取输入向量,乘以一些权重,添加偏差,并通过对其应用非线性来激活它,并不断地反复进行直到我们进行输出预测。
步骤3:将输出预测与真实标签进行比较,并计算误差值。
步骤4:反向传播错误。针对每个层递归地计算关于每个权重的误差的PD。因此,我们之前将计算PD wrt层,我们将采用误差梯度并使用它来计算下一层的PD,并递归地执行此过程,得到一组梯度值,用于更新网络中的所有权重
所以简而言之,BP就像 输入 - >前馈 - >得到错误 - > Back Propagate - >更新权重 - >重复
反向传播在受监督学习的标记数据集中运行良好,但它也用于没有特定标签的无监督学习。在无监督学习中,BP通过自我监督的方式工作,我们正在创建标签。
答案 2 :(得分:0)
无监督学习中有许多神经网络算法。只要可以定义成本函数,就可以使用“神经网络”。
例如,有一些自动编码器(用于降维)或生成对抗网络(所以有2个网络,其中一个生成新样本)。所有这些都是无监督的学习,仍然使用神经网络。