标签: r apache-spark bigdata
编辑:此问题不重复,因为只有阅读数据不是问题
我想对R中大约10 GB的csv文件进行分析。我正在使用具有60 GB内存的GCE虚拟机。
我想知道哪个R库适合阅读和执行操作,如filter,groupBy,colMeans等大文件
以下哪项应该是最佳选择(假设内存不是约束) -
read.csv
dplyr
ff
bigmemory