如何Spark实现交互式内存缓存?

时间:2012-12-24 03:45:21

标签: scala jvm mapreduce apache-spark

我想知道一个程序是否结束,用于该程序的内存被GC释放。

当我在交互式scala解释器中时,如何在Spark中缓存数据?

这是否意味着一次翻译是在一个过程中?

但更常见的是,我使用终端来运行代码,而不是在解释器本身,在这种情况下,我如何实现内存?

1 个答案:

答案 0 :(得分:3)

无论是使用解释器还是通过命令提示符,都可以使用rdd.cache()在内存中使用keep rdd。