Spark:在保存到磁盘时,执行器为什么被锁定为忙?

时间:2018-10-12 01:19:22

标签: apache-spark pyspark

我认为

  

.persist(StorageLevel.DISK_ONLY)

将为同事释放执行者CPU空间。即几个不同的Spark上下文在需要时执行工作,并将中间的RDD存储到HDD。但是,一两个坚持不同集合的同事可以完全锁定集群吗?这是怎么回事?

0 个答案:

没有答案