我有一个矩阵列表L
,其中每个项M
都是x*n
矩阵(x
是变量,n
是常量) 。
我想计算M'*M
中所有项目L
的总和(M'
是M
的转置),如下面的Python代码所示:
for M in L:
res += np.dot(M.T, M)
实际上我想在Theano中实现它(它不支持可变长度的多维数组),并且我不想将所有矩阵填充到相同的大小,因为这会浪费太多的空间(一些矩阵可能非常大。)
有更好的方法吗?
修改:
在Theano编辑之前已知 L
。
修改:
收到了来自@DanielRenshaw和@Divakar的两个优秀答案,情绪上难以选择接受。
答案 0 :(得分:5)
鉴于在Theano编译需要发生之前知道矩阵的数量,可以简单地使用Theano矩阵的常规Python列表。
这是一个完整的例子,展示了numpy和Theano版本之间的区别。
此代码已更新,以包含与@Divakar的矢量化方法的比较,该方法表现更好。 Theano可以使用两种向量化方法,一种是Theano执行连接的方法,另一种是numpy进行串联,其结果随后传递给Theano。
import timeit
import numpy as np
import theano
import theano.tensor as tt
def compile_theano_version1(number_of_matrices, n, dtype):
assert number_of_matrices > 0
assert n > 0
L = [tt.matrix() for _ in xrange(number_of_matrices)]
res = tt.zeros(n, dtype=dtype)
for M in L:
res += tt.dot(M.T, M)
return theano.function(L, res)
def compile_theano_version2(number_of_matrices):
assert number_of_matrices > 0
L = [tt.matrix() for _ in xrange(number_of_matrices)]
concatenated_L = tt.concatenate(L, axis=0)
res = tt.dot(concatenated_L.T, concatenated_L)
return theano.function(L, res)
def compile_theano_version3():
concatenated_L = tt.matrix()
res = tt.dot(concatenated_L.T, concatenated_L)
return theano.function([concatenated_L], res)
def numpy_version1(*L):
assert len(L) > 0
n = L[0].shape[1]
res = np.zeros((n, n), dtype=L[0].dtype)
for M in L:
res += np.dot(M.T, M)
return res
def numpy_version2(*L):
concatenated_L = np.concatenate(L, axis=0)
return np.dot(concatenated_L.T, concatenated_L)
def main():
iteration_count = 100
number_of_matrices = 20
n = 300
min_x = 400
dtype = 'float64'
theano_version1 = compile_theano_version1(number_of_matrices, n, dtype)
theano_version2 = compile_theano_version2(number_of_matrices)
theano_version3 = compile_theano_version3()
L = [np.random.standard_normal(size=(x, n)).astype(dtype)
for x in range(min_x, number_of_matrices + min_x)]
start = timeit.default_timer()
numpy_res1 = np.sum(numpy_version1(*L)
for _ in xrange(iteration_count))
print 'numpy_version1', timeit.default_timer() - start
start = timeit.default_timer()
numpy_res2 = np.sum(numpy_version2(*L)
for _ in xrange(iteration_count))
print 'numpy_version2', timeit.default_timer() - start
start = timeit.default_timer()
theano_res1 = np.sum(theano_version1(*L)
for _ in xrange(iteration_count))
print 'theano_version1', timeit.default_timer() - start
start = timeit.default_timer()
theano_res2 = np.sum(theano_version2(*L)
for _ in xrange(iteration_count))
print 'theano_version2', timeit.default_timer() - start
start = timeit.default_timer()
theano_res3 = np.sum(theano_version3(np.concatenate(L, axis=0))
for _ in xrange(iteration_count))
print 'theano_version3', timeit.default_timer() - start
assert np.allclose(numpy_res1, numpy_res2)
assert np.allclose(numpy_res2, theano_res1)
assert np.allclose(theano_res1, theano_res2)
assert np.allclose(theano_res2, theano_res3)
main()
运行时打印(类似)
numpy_version1 1.47830819649
numpy_version2 1.77405482179
theano_version1 1.3603150303
theano_version2 1.81665318145
theano_version3 1.86912039489
断言传递,表明Theano和numpy版本都以高精度计算相同的结果。显然,如果使用float32
代替float64
,这种准确性会降低。
时序结果表明矢量化方法可能不是优选的,它取决于矩阵大小。在上面的示例中,矩阵很大,非级联方法更快,但如果n
和min_x
参数在main
函数中更改为小得多,则串联方法是更快。在GPU上运行时可能会有其他结果(仅限Theano版本)。
答案 1 :(得分:3)
您可以沿着第一个轴填充输入数组,这是所有x
的加法。因此,我们最终得到一个高(X,n)
数组,其中X =x1+x2+x3+....
。这可以转置,其自身的点积将是形状(n,n)
的理想输出。所有这一切都是通过利用强大的点积的纯矢量化解决方案实现的。因此,实施将是 -
# Concatenate along axis=0
Lcat = np.concatenate(L,axis=0)
# Perform dot product of the transposed version with self
out = Lcat.T.dot(Lcat)
运行时测试并验证输出 -
In [116]: def vectoized_approach(L):
...: Lcat = np.concatenate(L,axis=0)
...: return Lcat.T.dot(Lcat)
...:
...: def original_app(L):
...: n = L[0].shape[1]
...: res = np.zeros((n,n))
...: for M in L:
...: res += np.dot(M.T, M)
...: return res
...:
In [117]: # Input
...: L = [np.random.rand(np.random.randint(1,9),5)for iter in range(1000)]
In [118]: np.allclose(vectoized_approach(L),original_app(L))
Out[118]: True
In [119]: %timeit original_app(L)
100 loops, best of 3: 3.84 ms per loop
In [120]: %timeit vectoized_approach(L)
1000 loops, best of 3: 632 µs per loop
答案 2 :(得分:1)
除了@ DanielRenshaw的回答之外,如果我们将矩阵数增加到1000,compile_theano_version1
函数将产生RuntimeError: maximum recursion depth exceeded
,compile_theano_version2
似乎永远需要编译。
使用typed_list
def compile_theano_version4(number_of_matrices, n):
import theano.typed_list
L = theano.typed_list.TypedListType(tt.TensorType(theano.config.floatX, broadcastable=(None, None)))()
res, _ = theano.scan(fn=lambda i: tt.dot(L[i].T, L[i]),
sequences=[theano.tensor.arange(number_of_matrices, dtype='int64')])
return theano.function([L], res.sum(axis=0))
此外,我将所有相关变量的数据类型设置为float32
并在GPU上运行@DanielRenshaw的脚本,结果证明@Divakar的建议(theano_version3
)在这种情况下是最有效的。虽然正如@DanielRenshaw所说,使用巨大的矩阵并不总是一个好习惯。
以下是我机器上的设置和输出。
iteration_count = 100
number_of_matrices = 200
n = 300
min_x = 20
dtype = 'float32'
theano.config.floatX = dtype
numpy_version1 5.30542397499
numpy_version2 3.96656394005
theano_version1 5.26742005348
theano_version2 1.76983904839
theano_version3 1.03577589989
theano_version4 5.58366179466