标签: scala apache-spark rdd
在evictBlocksToFreeSpace函数中,它表示:
尝试逐出块以释放给定存储特定块的空间。 如果块大于我们的内存或需要替换,可能会失败 来自同一RDD的另一个块(这会导致浪费的循环替换模式 我们不希望避免的RDD无法放入内存中。
尝试逐出块以释放给定存储特定块的空间。
如果块大于我们的内存或需要替换,可能会失败 来自同一RDD的另一个块(这会导致浪费的循环替换模式 我们不希望避免的RDD无法放入内存中。
我的问题是:为什么不允许对同一RDD中的块进行逐出?什么是浪费循环替换?