Apache Spark作业在独立群集中处于SUBMITTED状态

时间:2015-04-27 13:49:41

标签: hadoop apache-spark

即使有足够的内核和可用内存,Apache Spark作业仍处于SUBMITTED状态。

具有独立管理器的Spark 1.2.1集群具有:

总节点数:3 总核心数:8核 总内存:14 GB

出于此, 第一个应用程序使用: 1Gb内存和2个内核,因此集群仍然有13GB内存和6个核心可用。 但在提交另一个应用程序后,它将进入提交状态并等待第一个应用程序完成。

为什么它没有立即开始?为什么它等待其他应用程序完成?

0 个答案:

没有答案