Spark Executor失去了问题

时间:2016-09-28 06:21:13

标签: apache-spark apache-spark-sql

我有一个火花作业,可以很好地处理小数据。但是当数据增加时,它会给执行程序丢失错误。我的执行程序和驱动程序内存设置在最高点。我也试过增加spark.overhead.memory但仍然无法解决问题。 有没有其他解决方案来解决问题?

0 个答案:

没有答案