加载巨大的文件并计算R中的行和列总和

时间:2014-11-01 08:28:55

标签: r

我正在尝试将一个巨大的文件加载到R(> 30 Gb)。

我试图运行的命令不仅速度慢,而且还会使ram崩溃:

m = read.table("myfile.txt")
print("Done reading m")
m.row.sums = apply(m,1,sum)
write.table(m.row.sums, file = "myfile_rowsums.txt")
m.col.sums = apply(m,2,sum)
write.table(m.col.sums, file = "myfile_colsums.txt")
m.sub = m[,which(m.col.sums>1000)]
write.table(m.col.sums, file = "myfile_sub.txt")

在R中是否有更多内存有效(和更快)的方法来实现相同的目标?

0 个答案:

没有答案