从头开始重新启动Spark作业

时间:2018-07-04 08:04:12

标签: apache-spark memory yarn oozie

我在用oozie安排的纱线簇上进行一些火花计算。我注意到一个奇怪的行为:有时我的工作从一开始就重新开始。在Spark作业列表中,将清除所有内容并重新完成所有作业。即使在执行者视图中,执行者也会被清除。然后,再次启动时,它将失败并显示内存错误。看来,如果我给程序分配更多的驱动程序内存,则计算完成。

所以我的结论是:没有足够的驱动程序内存,计算将无法完成,重新启动然后正常地失败。是否有这样的配置条目允许这种行为?

0 个答案:

没有答案
相关问题