标签: apache-spark apache-spark-sql
我有一个火花作业,可以很好地处理小数据。但是当数据增加时,它会给执行程序丢失错误。我的执行程序和驱动程序内存设置在最高点。我也试过增加spark.overhead.memory但仍然无法解决问题。 有没有其他解决方案来解决问题?
spark.overhead.memory