我在R比较新并且很穷,我正在尝试做一些似乎给我带来麻烦的事情。
我有几个大型的spacepolygonsdataframes,我试图将它们组合成1个spatialpolygonsdataframe。共有7个,总共约5 GB。我的mac只有8GB的RAM。
当我尝试创建聚合的spatialpolygonsdataframe时,R需要花费相当长的时间才能运行,我不得不退出。我认为这是因为我没有足够的RAM。
我的代码很简单:aggregate< -rbind(file1,file2,....)。有更聪明/更好的方法吗?
谢谢。
答案 0 :(得分:0)
我不同意,阅读大型数据集的一个主要组成部分不是RAM容量(尽管我建议你升级,如果可以的话)。而是读/写速度。硬件,7200RPM的HDD相对于SSD而言要慢得多。如果您能够安装SSD并将其作为工作目录,我会推荐它。