在神经网络的前向传递中,任何一层的神经元u
都在做两个连续的操作
net_u
F_act(net_u)
,其中F_act
是神经元激活功能。结果是将由后继神经元消耗的缩放器out_v
神经元的框图可以表示为以下图像source
现在假设需要的应用程序每层具有不同激活功能的神经网络。这样,在每个前向通道中,每一层都将具有此层中所有神经元的vector
输出net
,以及在此向量中对每个元素应用f_act
的时间。 / p>
SIMD
我相信它会慢一些,因为无论何时应用f_act
,我们都需要调用多个向量操作[每个f_act
一个]。
我说得对吗?或者为每个f_act
调用向量运算的开销非常小,可以忽略不计?