R - 创建新文件会占用太多内存

时间:2017-10-25 00:11:15

标签: r memory gis rbind

我在R比较新并且很穷,我正在尝试做一些似乎给我带来麻烦的事情。

我有几个大型的spacepolygonsdataframes,我试图将它们组合成1个spatialpolygonsdataframe。共有7个,总共约5 GB。我的mac只有8GB的RAM。

当我尝试创建聚合的spatialpolygonsdataframe时,R需要花费相当长的时间才能运行,我不得不退出。我认为这是因为我没有足够的RAM。

我的代码很简单:aggregate< -rbind(file1,file2,....)。有更聪明/更好的方法吗?

谢谢。

1 个答案:

答案 0 :(得分:0)

我不同意,阅读大型数据集的一个主要组成部分不是RAM容量(尽管我建议你升级,如果可以的话)。而是读/写速度。硬件,7200RPM的HDD相对于SSD而言要慢得多。如果您能够安装SSD并将其作为工作目录,我会推荐它。