java.lang.OutOfMemoryError:Apache Spark中的Java堆空间

时间:2016-10-19 09:23:24

标签: scala apache-spark

我尝试在Spark中进行算法(快速傅里叶变换,FFT)。

当数据超过64米时(虽然它真的很小。),控制台会显示消息:

$result = mysql_query($query);
echo  mysql_num_rows($result);

我使用的是32位Ubuntu系统和Spark-1.6.0。我使用Scala IDE,eclipse。

我使用本地模式和独立模式。当数据小于32米时,它运行良好,但当数据大于64米时,它无法工作。

我尝试将JVM设置设置为java.lang.OutOfMemoryError: java heap space. -Xms1000m。我还尝试在代码中创建-Xmx4000m时添加.set("spark.exetutor.memory", "8g")。但是它们都不起作用。

我该如何解决这个问题?

1 个答案:

答案 0 :(得分:1)

如果您使用spark.master = local,则要调整的相关值为spark.driver.memory。请注意,需要在本地模式下启动JVM(即驱动程序)之前设置此选项,因此修改现有的SparkContext将无济于事,因为JVM已经启动。