如何为spark yarn cluster作业设置yarn.app.mapreduce.am.command-opts

时间:2016-10-28 14:32:10

标签: hadoop apache-spark

在纱线群集模式下运行spark作业时,我收到“Container ...超出虚拟内存限制”错误。 无法忽略此错误或增加Vmem Pmem比率。

通过spark-submit以“--conf spark.driver.memory = 2800m”提交作业。 我认为这是因为yarn.app.mapreduce.am.command-opts的默认值是1G,所以一旦我的驱动程序/ AM使用超过1G的内存,yarn就会杀死我的驱动程序/ AM。

所以我想将“yarn.app.mapreduce.am.command-opts”传递给bash脚本中的spark-submit。使用“spark.driver.extraJavaOptions”错误传递“不允许通过java选项指定最大堆(Xmx)内存设置”

那我怎么通过呢?

编辑:我无法编辑conf文件,因为这将改变所有MR和火花作业。

0 个答案:

没有答案