我通常使用
matrix[:, i:]
似乎没有我预期的那么快。
答案 0 :(得分:13)
如果要获得稀疏矩阵作为输出,最快的行切片方法是csr
类型,以及切片csc
,as detailed here的列。在这两种情况下,你只需要做你目前正在做的事情:
matrix[l1:l2,c1:c2]
如果你想要另一种类型作为输出,可能会有更快的方法。 In this other answer解释了许多切片矩阵的方法及其不同的时序比较。例如,如果您希望ndarray
作为输出,则最快切片为:
matrix.A[l1:l2,c1:c2]
或:
matrix.toarray()[l1:l2,c1:c2]
比以下快得多:
matrix[l1:l2,c1:c2].A #or .toarray()
答案 1 :(得分:4)
我发现通过滚动自己的行索引器可以更快地制作广告的scipy.sparse.csr_matrix
快速行索引。这是个主意:
class SparseRowIndexer:
def __init__(self, csr_matrix):
data = []
indices = []
indptr = []
# Iterating over the rows this way is significantly more efficient
# than csr_matrix[row_index,:] and csr_matrix.getrow(row_index)
for row_start, row_end in zip(csr_matrix.indptr[:-1], csr_matrix.indptr[1:]):
data.append(csr_matrix.data[row_start:row_end])
indices.append(csr_matrix.indices[row_start:row_end])
indptr.append(row_end-row_start) # nnz of the row
self.data = np.array(data)
self.indices = np.array(indices)
self.indptr = np.array(indptr)
self.n_columns = csr_matrix.shape[1]
def __getitem__(self, row_selector):
data = np.concatenate(self.data[row_selector])
indices = np.concatenate(self.indices[row_selector])
indptr = np.append(0, np.cumsum(self.indptr[row_selector]))
shape = [indptr.shape[0]-1, self.n_columns]
return sparse.csr_matrix((data, indices, indptr), shape=shape)
也就是说,可以通过将每行的非零值存储在单独的数组中(每行具有不同的长度)并将所有这些行数组放在一个对象中来利用numpy数组的快速索引。可以有效索引的类型化数组(允许每行具有不同的大小)。列索引以相同的方式存储。该方法与标准CSR数据结构略有不同,后者将所有非零值存储在单个阵列中,需要查找以查看每行的开始和结束位置。这些查找可能会减慢随机访问速度,但应该可以有效地检索连续的行。
我的矩阵mat
是1,900,000x1,250,000 csr_matrix
,有400,000,000个非零元素。
ilocs
是一个包含200,000个随机行索引的数组。
>>> %timeit mat[ilocs]
2.66 s ± 233 ms per loop (mean ± std. dev. of 7 runs, 1 loop each)
与之相比:
>>> row_indexer = SparseRowIndexer(mat)
>>> %timeit row_indexer[ilocs]
59.9 ms ± 4.51 ms per loop (mean ± std. dev. of 7 runs, 10 loops each)
与布尔掩码相比,使用花式索引时,SparseRowIndexer似乎更快。