我尝试在Spark中进行算法(快速傅里叶变换,FFT)。
当数据超过64米时(虽然它真的很小。),控制台会显示消息:
$result = mysql_query($query);
echo mysql_num_rows($result);
我使用的是32位Ubuntu系统和Spark-1.6.0。我使用Scala IDE,eclipse。
我使用本地模式和独立模式。当数据小于32米时,它运行良好,但当数据大于64米时,它无法工作。
我尝试将JVM设置设置为java.lang.OutOfMemoryError: java heap space.
和-Xms1000m
。我还尝试在代码中创建-Xmx4000m
时添加.set("spark.exetutor.memory", "8g")
。但是它们都不起作用。
我该如何解决这个问题?
答案 0 :(得分:1)
如果您使用spark.master = local
,则要调整的相关值为spark.driver.memory
。请注意,需要在本地模式下启动JVM(即驱动程序)之前设置此选项,因此修改现有的SparkContext
将无济于事,因为JVM已经启动。