我多次在神经网络前向传播中看到,示例向量从左侧(向量矩阵)乘以某些时间从右侧(矩阵向量)乘以。符号,一些Tensorflow教程和我发现的数据集似乎比后者更喜欢前者,这与线性代数倾向于被教导的方式相反(矩阵向量方式)。
此外,它们表示反向表示参数的方式:枚举0维中的问题变量或枚举维度为0的神经元。
这让我感到困惑,让我想知道这里是否真的有标准,或者只是巧合。如果有的话,我想知道该标准是否有更深层次的原因。我觉得回答这个问题真的很好。
(顺便说一句,我知道你通常会使用示例矩阵而不是矢量[或者更复杂的东西在转换网中等等]因为使用了minibatches,但这一点仍然存在。)
答案 0 :(得分:0)
不确定这个答案是否符合您的要求,但在Tensorflow的上下文中,标准是使用密集层(https://www.tensorflow.org/api_docs/python/tf/layers/dense),这是一个包含仿射变换逻辑的更高级抽象你指的是。