标签: scala jvm mapreduce apache-spark
我想知道一个程序是否结束,用于该程序的内存被GC释放。
当我在交互式scala解释器中时,如何在Spark中缓存数据?
这是否意味着一次翻译是在一个过程中?
但更常见的是,我使用终端来运行代码,而不是在解释器本身,在这种情况下,我如何实现内存?
答案 0 :(得分:3)
无论是使用解释器还是通过命令提示符,都可以使用rdd.cache()在内存中使用keep rdd。
rdd.cache()