标签: apache-spark
spark.yarn.maxAppAttempts = 2
yarn.resourcemanager.am.max-attempts=2
df.cache()
下一次尝试是利用已经计算的缓存数据还是全新的分离计算?
相关但不完全相同: How to limit the number of retries on Spark job failure?