使用scipy进行SVD​​时出现内存错误

时间:2011-12-27 20:53:31

标签: python scipy svd

我尝试使用LSI生成表示文档的向量。我在Scipy库中使用svd包。但该程序会引发内存错误。我的矩阵的大小是100 * 13057。这对我的8G内存来说太大了吗?

我在stackflow中搜索了这个问题。有人说我只需要在我的64位操作系统上安装64位Python。 (现在,我在64位操作系统上有32位Python)。但重新安装所有库太简单了。另一种意见是转换稀疏矩阵。

那么每个人都对这个问题有所了解吗?谢谢!

raw_matrix = []
for text in forest_lsi:
    raw_matrix.append( text.get_vector() )
from svd import compute_svd
print("The size of raw matrix: "+str(len(raw_matrix))+" * "+str(len(raw_matrix[0])))
matrix = compute_svd( raw_matrix )

Concole中的消息如下:

The size of raw matrix: 100 * 13057
Original matrix:
[[1 1 2 ..., 0 0 0]
 [0 3 0 ..., 0 0 0]
 [0 0 0 ..., 0 0 0]
 ..., 
 [0 0 0 ..., 0 0 0]
 [0 0 1 ..., 0 0 0]
 [0 0 2 ..., 1 1 3]]
Traceback (most recent call last):
  File "D:\workspace\PyQuEST\src\Practice\baseline_lsi.py", line 93, in <module>
    matrix = compute_svd( raw_matrix )
  File "D:\workspace\PyQuEST\src\Practice\svd.py", line 12, in compute_svd
    U, s, V = linalg.svd( matrix )
  File "D:\Program\Python26\lib\site-packages\scipy\linalg\decomp_svd.py", line 79, in svd
    full_matrices=full_matrices, overwrite_a = overwrite_a)
MemoryError

1 个答案:

答案 0 :(得分:0)

如果您使用的是默认V,则13057*13057*8矩阵会占用dtype=np.float个字节的内存。 1.4GB。我的预感是,这对于你的32位Python来说太大了。尝试使用32位浮点数(即dtype=np.float32)将内存使用减少一半,或者开始使用scipy.sparse(对于信息检索问题几乎总是一个好主意)。