标签: apache-spark pyspark
我认为
.persist(StorageLevel.DISK_ONLY)
将为同事释放执行者CPU空间。即几个不同的Spark上下文在需要时执行工作,并将中间的RDD存储到HDD。但是,一两个坚持不同集合的同事可以完全锁定集群吗?这是怎么回事?