没有scipy.sparse

时间:2017-01-23 09:55:29

标签: python numpy vectorization sparse-matrix

我正在尝试进行空间衍生,并且几乎设法从我的代码中获取所有循环,但是当我尝试在最后总结一切时我遇到了问题。

我有一组N~=250k个节点。我发现i,j节点对的索引i.size=j.size=~7.5M在一定的搜索距离内,最初来自np.triu_indices(n,1)并通过一系列布尔掩码来清除不影响彼此的节点。现在我想总结一下其他节点对每个节点的影响。

我目前有这个:

def sparseSum(a,i,j,n):
    return np.array([np.sum(a[np.logical_or(i==k,j==k)],axis=0) for k in range(n)])

这很慢。我想要的是矢量化的东西。如果我有scipy我可以做

def sparseSum(a,i,j,n):
    sp=scipy.sparse.csr_matrix((a,(i,j)),shape=(n,n))+ scipy.sparse.csr_matrix((a,(j,i)),shape=(n,n))
    return np.sum(sp, axis=0)

但是我在Abaqus实现中完成了这一切,不包括scipy。有没有办法只做这个numpy?

2 个答案:

答案 0 :(得分:2)

方法#1:以下是一种利用matrix-multiplicationbroadcasting的方法 -

K = np.arange(n)[:,None]
mask = (i == K) | (j == K)
out = np.dot(mask,a)

方法#2:对于列数较少的情况,我们可以使用np.bincount对每列进行基于bin的求和,如下所示 -

def sparseSum(a,i,j,n):
    if len(a.shape)==1:
        out=np.bincount(i,a,minlength=n)+np.bincount(j,a)
    else:
        ncols = a.shape[1]
        out = np.empty((n,ncols))
        for k in range(ncols):
            out[:,k] = np.bincount(i,a[:,k],minlength=n) + np.bincount(j,a[:,k])
    return out

答案 1 :(得分:0)

这不是一个交钥匙解决方案,而是一个添加稀疏矩阵列的解决方案。它主要计算和利用csc表示

def sparse_col_sums(i, j, a, N):
    order = np.lexsort(j, i)
    io, jo, ao = i[order], j[order], a[order]
    col_bnds = io.searchsorted(np.arange(N))
    return np.add.reduceat(ao, col_bnds)