Tensor dot:深入学习python

时间:2018-01-03 17:59:13

标签: machine-learning deep-learning linear-algebra matrix-multiplication tensor

我目前正在阅读使用Python进行深度学习,我不知道作者在第42页上想说的是什么。链接是here

  

更一般地说,你可以在高维张量之间取点积,       遵循前面针对2D案例所述的形状兼容性相同的规则:

(a, b, c, d) . (d,) -> (a, b, c)
(a, b, c, d) . (d, e) -> (a, b, c, e)

不确定他在这里想说些什么。我确实理解矩阵乘法是如何工作的,但上面两行代码并不清楚。

1 个答案:

答案 0 :(得分:2)

按照这种表示法,矩阵乘法是

(a, b) * (b, c) -> (a, c)

当第二个矩阵是向量时,它简化为

(a, b) * (b, ) -> (a, )

现在,当第一个或第二个矩阵具有额外的维度时,本书中的公式简单地解释了如何扩展此操作。同样重要的是两者都有匹配的尺寸(最后的暗淡= =第一个暗淡,没有重塑),张力可以乘以它,从而消除了这个维度。因此,结果形状的公式为:

(a, b, c, d) * (d, e) -> (a, b, c, e)
相关问题