标签: hadoop apache-spark
即使有足够的内核和可用内存,Apache Spark作业仍处于SUBMITTED状态。
具有独立管理器的Spark 1.2.1集群具有:
总节点数:3 总核心数:8核 总内存:14 GB
出于此, 第一个应用程序使用: 1Gb内存和2个内核,因此集群仍然有13GB内存和6个核心可用。 但在提交另一个应用程序后,它将进入提交状态并等待第一个应用程序完成。
为什么它没有立即开始?为什么它等待其他应用程序完成?