Spark:我已失去参考的unpersist RDD

时间:2017-02-06 16:10:23

标签: scala apache-spark

如何在MLlib模型中生成的RDD,我没有参考?

我知道在pyspark中你可以用sqlContext.clearCache()来解决所有数据帧的问题,scala API中的RDD有类似之处吗?此外,有没有一种方法可以解决一些RDD,而不必全部解决?

1 个答案:

答案 0 :(得分:7)

你可以打电话

val rdds = sparkContext.getPersistentRDDs(); // result is Map[Int, RDD]

然后过滤值以获得所需的值(1):

rdds.filter (x => filterLogic(x._2)).foreach (x => x._2.unpersist())

(1) - 手写,没有编译器 - 对不起,如果有一些错误,但不应该;)