如何在Spark而不是RAM上进行磁盘计算?

时间:2014-11-11 09:39:13

标签: hadoop apache-spark

我是新手,需要在磁盘上运行Spark程序。我想在磁盘而不是RAM上加载RDD我该怎么办?

1 个答案:

答案 0 :(得分:0)

使用RDD.cache(DISK_ONLY)

它仅将RDD分区存储在磁盘上。