我正在尝试进行空间衍生,并且几乎设法从我的代码中获取所有循环,但是当我尝试在最后总结一切时我遇到了问题。
我有一组N~=250k
个节点。我发现i,j
节点对的索引i.size=j.size=~7.5M
在一定的搜索距离内,最初来自np.triu_indices(n,1)
并通过一系列布尔掩码来清除不影响彼此的节点。现在我想总结一下其他节点对每个节点的影响。
我目前有这个:
def sparseSum(a,i,j,n):
return np.array([np.sum(a[np.logical_or(i==k,j==k)],axis=0) for k in range(n)])
这很慢。我想要的是矢量化的东西。如果我有scipy我可以做
def sparseSum(a,i,j,n):
sp=scipy.sparse.csr_matrix((a,(i,j)),shape=(n,n))+ scipy.sparse.csr_matrix((a,(j,i)),shape=(n,n))
return np.sum(sp, axis=0)
但是我在Abaqus实现中完成了这一切,不包括scipy。有没有办法只做这个numpy?
答案 0 :(得分:2)
方法#1:以下是一种利用matrix-multiplication
和broadcasting
的方法 -
K = np.arange(n)[:,None]
mask = (i == K) | (j == K)
out = np.dot(mask,a)
方法#2:对于列数较少的情况,我们可以使用np.bincount
对每列进行基于bin的求和,如下所示 -
def sparseSum(a,i,j,n):
if len(a.shape)==1:
out=np.bincount(i,a,minlength=n)+np.bincount(j,a)
else:
ncols = a.shape[1]
out = np.empty((n,ncols))
for k in range(ncols):
out[:,k] = np.bincount(i,a[:,k],minlength=n) + np.bincount(j,a[:,k])
return out
答案 1 :(得分:0)
这不是一个交钥匙解决方案,而是一个添加稀疏矩阵列的解决方案。它主要计算和利用csc表示
def sparse_col_sums(i, j, a, N):
order = np.lexsort(j, i)
io, jo, ao = i[order], j[order], a[order]
col_bnds = io.searchsorted(np.arange(N))
return np.add.reduceat(ao, col_bnds)