我有一个很大的csr_matrix
,我对每一行的十大价值及其指数感兴趣。但我没有找到一种操纵矩阵的好方法。
这是我目前的解决方案,主要思想是逐行处理它们:
row = csr_matrix.getrow(row_number).toarray()[0].ravel()
top_ten_indicies = row.argsort()[-10:]
top_ten_values = row[row.argsort()[-10:]]
通过这样做,csr_matrix
的优点未得到充分利用。它更像是一个强力解决方案。
答案 0 :(得分:7)
在这种情况下,我看不出csr
格式的优点。当然,所有非零值都收集在一个.data
数组中,相应的列索引位于.indices
中。但它们的长度各不相同。这意味着它们不能并行处理或使用numpy
数组步幅。
一种解决方案是将这些块填充到公共长度块中。这就是.toarray()
的作用。然后,您可以使用argsort(axis=1) or with
argpartition`找到最大值。
另一种方法是将它们分成行大小的块,然后处理每个块。这就是你在.getrow
做的事情。另一种解决方法是转换为lil
格式,并处理.data
和.rows
数组的子列表。
可能的第三种选择是使用ufunc
reduceat
方法。这使您可以将ufunc
reduction
方法应用于数组的顺序块。已经建立了ufunc
类np.add
,可以利用这一点。 argsort
不是这样的功能。但是有一种方法可以从Python函数构造ufunc
,并且比常规Python迭代获得一些适度的速度。 [我需要查看最近的一个SO问题来说明这一点。]
我将用一个更简单的函数来说明其中的一些,总结行。
如果A2
是csr矩阵。
A2.sum(axis=1) # the fastest compile csr method
A2.A.sum(axis=1) # same, but with a dense intermediary
[np.sum(l.data) for l in A2] # iterate over the rows of A2
[np.sum(A2.getrow(i).data) for i in range(A2.shape[0])] # iterate with index
[np.sum(l) for l in A2.tolil().data] # sum the sublists of lil format
np.add.reduceat(A2.data, A2.indptr[:-1]) # with reduceat
A2.sum(axis=1)
实现为矩阵乘法。这与排序问题无关,但仍然是查看求和问题的有趣方法。请记住,csr
格式是为有效乘法而开发的。
对于我当前的样本矩阵(为另一个SO稀疏问题创建)
<8x47752 sparse matrix of type '<class 'numpy.float32'>'
with 32 stored elements in Compressed Sparse Row format>
一些比较时间
In [694]: timeit np.add.reduceat(A2.data, A2.indptr[:-1])
100000 loops, best of 3: 7.41 µs per loop
In [695]: timeit A2.sum(axis=1)
10000 loops, best of 3: 71.6 µs per loop
In [696]: timeit [np.sum(l) for l in A2.tolil().data]
1000 loops, best of 3: 280 µs per loop
其他一切都是1毫秒或更长。
我建议专注于开发你的单行函数,例如:
def max_n(row_data, row_indices, n):
i = row_data.argsort()[-n:]
# i = row_data.argpartition(-n)[-n:]
top_values = row_data[i]
top_indices = row_indices[i] # do the sparse indices matter?
return top_values, top_indices, i
然后看看如何适应这些迭代方法之一。 tolil()
看起来最有希望。
我没有解决如何收集这些结果的问题。它们应该是列表列表,10列的数组,每行10个值的另一个稀疏矩阵等等吗?
sorting each row of a large sparse & saving top K values & column index - 几年前的类似问题,但没有答案。
Argmax of each row or column in scipy sparse matrix - 最近针对argmax
行搜索csr
的问题。我讨论了一些相同的问题。
how to speed up loop in numpy? - 如何使用np.frompyfunc
创建ufunc
的示例。我不知道结果函数是否具有.reduceat
方法。
Increasing value of top k elements in sparse matrix - 获取csr的前k个元素(不是按行)。 argpartition
的案例。
使用np.frompyfunc
实现的行总和:
In [741]: def foo(a,b):
return a+b
In [742]: vfoo=np.frompyfunc(foo,2,1)
In [743]: timeit vfoo.reduceat(A2.data,A2.indptr[:-1],dtype=object).astype(float)
10000 loops, best of 3: 26.2 µs per loop
这是可观的速度。但我想不出一种编写二进制函数(需要2个参数)的方法,它将通过简化来实现argsort
。所以这可能是这个问题的一个障碍。
答案 1 :(得分:0)
回答最初的问题(对于像我这样的人发现这个问题寻找复制意大利面),这里有一个基于@ hpaulj建议转换为lil_matrix
并迭代行的多处理的解决方案
from multiprocessing import Pool
def _top_k(args):
"""
Helper function to process a single row of top_k
"""
data, row = args
data, row = zip(*sorted(zip(data, row), reverse=True)[:k])
return data, row
def top_k(m, k):
"""
Keep only the top k elements of each row in a csr_matrix
"""
ml = m.tolil()
with Pool() as p:
ms = p.map(_top_k, zip(ml.data, ml.rows))
ml.data, ml.rows = zip(*ms)
return ml.tocsr()
答案 2 :(得分:0)
将需要遍历行并分别获取每一行的最高索引。但是,可以对这个循环进行设置(并并行化)以获得极快的功能。
@nb.njit(cache=True)
def row_topk_csr(data, indices, indptr, K):
m = indptr.shape[0] - 1
max_indices = np.zeros((m, K), dtype=indices.dtype)
max_values = np.zeros((m, K), dtype=data.dtype)
for i in nb.prange(m):
top_inds = np.argsort(data[indptr[i] : indptr[i + 1]])[::-1][:K]
max_indices[i] = indices[indptr[i] : indptr[i + 1]][top_inds]
max_values[i] = data[indptr[i] : indptr[i + 1]][top_inds]
return max_indices, max_values
这样称呼:
top_pred_indices, _ = row_topk_csr(csr_mat.data, csr_mat.indices, csr_mat.indptr, K)
我需要经常执行此操作,并且此功能对我来说足够快,可以在1mil x 400k稀疏矩阵上以<1s的时间执行。
HTH。