为什么同一RDD中的块无法驱逐?

时间:2019-01-17 04:43:26

标签: scala apache-spark rdd

evictBlocksToFreeSpace函数中,它表示:

  

尝试逐出块以释放给定存储特定块的空间。

     

如果块大于我们的内存或需要替换,可能会失败   来自同一RDD的另一个块(这会导致浪费的循环替换模式   我们不希望避免的RDD无法放入内存中。

我的问题是:为什么不允许对同一RDD中的块进行逐出?什么是浪费循环替换

0 个答案:

没有答案