我需要在两个4D阵列(m& n)上执行矩阵乘法,其尺寸为2x2x2x2和2x3x2x2,用于m& n分别应该产生2x3x2x2阵列。经过大量的研究(主要是在这个网站上),似乎可以通过 np.einsum 或 np.tensordot 有效地完成,但我无法复制答案我来自Matlab(手工验证)。我理解这些方法(einsum和tensordot)在2D阵列上执行矩阵乘法时是如何工作的(清楚地解释here),但是我无法使4D阵列的轴索引正确。显然我错过了什么!我的实际问题涉及两个23x23x3x3复数数组,但我的测试数组是:
a = np.array([[1, 7], [4, 3]])
b = np.array([[2, 9], [4, 5]])
c = np.array([[3, 6], [1, 0]])
d = np.array([[2, 8], [1, 2]])
e = np.array([[0, 0], [1, 2]])
f = np.array([[2, 8], [1, 0]])
m = np.array([[a, b], [c, d]]) # (2,2,2,2)
n = np.array([[e, f, a], [b, d, c]]) # (2,3,2,2)
我意识到复杂的数字可能会带来更多问题,但就目前而言,我只是想了解indexxing如何与einsum& amp; tensordot。我正在追逐的答案是这个2x3x2x2阵列:
+----+-----------+-----------+-----------+
| | 0 | 1 | 2 |
+====+===========+===========+===========+
| 0 | [[47 77] | [[22 42] | [[44 40] |
| | [31 67]] | [27 74]] | [33 61]] |
+----+-----------+-----------+-----------+
| 1 | [[42 70] | [[24 56] | [[41 51] |
| | [10 19]] | [ 6 20]] | [ 6 13]] |
+----+-----------+-----------+-----------+
我最近的尝试是使用np.tensordot:
mn = np.tensordot(m,n, axes=([1,3],[0,2]))
它给了我一个2x2x3x2数组,但数字正确,但顺序不正确:
+----+-----------+-----------+
| | 0 | 1 |
+====+===========+===========+
| 0 | [[47 77] | [[31 67] |
| | [22 42] | [24 74] |
| | [44 40]] | [33 61]] |
+----+-----------+-----------+
| 1 | [[42 70] | [[10 19] |
| | [24 56] | [ 6 20] |
| | [41 51]] | [ 6 13]] |
+----+-----------+-----------+
我也试图实施here的一些解决方案,但没有任何运气 关于如何改进这一点的任何想法将不胜感激,谢谢
答案 0 :(得分:3)
你最好的选择,因为你的缩小尺寸既不匹配(这将允许广播)也不是"内部"维度(可与np.tensordot
原生使用)是使用np.einsum
np.einsum('ijkl,jmln->imkn', m, n)
array([[[[47, 77],
[31, 67]],
[[22, 42],
[24, 74]],
[[44, 40],
[33, 61]]],
[[[42, 70],
[10, 19]],
[[24, 56],
[ 6, 20]],
[[41, 51],
[ 6, 13]]]])
答案 1 :(得分:3)
你可以简单地交换tensordot
结果上的轴,这样我们仍然可以利用基于BLAS
的和减少tensordot
-
np.tensordot(m,n, axes=((1,3),(0,2))).swapaxes(1,2)
或者,我们可以在m
调用中交换n
和tensordot
的位置并转置以重新排列所有轴 -
np.tensordot(n,m, axes=((0,2),(1,3))).transpose(2,0,3,1)
使用重塑和交换轴的手工,我们也可以使用2D
引入np.dot
矩阵乘法,就像这样 -
m0,m1,m2,m3 = m.shape
n0,n1,n2,n3 = n.shape
m2D = m.swapaxes(1,2).reshape(-1,m1*m3)
n2D = n.swapaxes(1,2).reshape(n0*n2,-1)
out = m2D.dot(n2D).reshape(m0,m2,n1,n3).swapaxes(1,2)
运行时测试 -
将输入数组缩放为10x
个形状:
In [85]: m = np.random.rand(20,20,20,20)
In [86]: n = np.random.rand(20,30,20,20)
# @Daniel F's soln with einsum
In [87]: %timeit np.einsum('ijkl,jmln->imkn', m, n)
10 loops, best of 3: 136 ms per loop
In [126]: %timeit np.tensordot(m,n, axes=((1,3),(0,2))).swapaxes(1,2)
100 loops, best of 3: 2.31 ms per loop
In [127]: %timeit np.tensordot(n,m, axes=((0,2),(1,3))).transpose(2,0,3,1)
100 loops, best of 3: 2.37 ms per loop
In [128]: %%timeit
...: m0,m1,m2,m3 = m.shape
...: n0,n1,n2,n3 = n.shape
...: m2D = m.swapaxes(1,2).reshape(-1,m1*m3)
...: n2D = n.swapaxes(1,2).reshape(n0*n2,-1)
...: out = m2D.dot(n2D).reshape(m0,m2,n1,n3).swapaxes(1,2)
100 loops, best of 3: 2.36 ms per loop
答案 2 :(得分:2)
只是为了证明广播也有效:
(m[:, :, None, :, :, None] * n[None, :, :, None, :, :]).sum(axis=(1,4))
但是发布的其他解决方案可能更快,至少对于大型阵列而言。