我对动态资源分配有疑问/问题。 我使用spark 1.6.2和独立集群管理器。
我有一个有2个核心的工人。 我在所有节点上的spark-defaults.conf文件中设置了以下参数:
spark.dynamicAllocation.enabled true
spark.shuffle.service.enabled true
spark.deploy.defaultCores 1
我运行一个包含许多任务的示例应用程序。 我在驱动程序上打开端口4040,我可以验证上面的配置是否存在。
我的问题是,无论我做什么,我的应用程序只获得1个核心,即使其他核心可用。
这是正常的还是我的配置有问题?
我想要的行为是这样的: 我有很多用户使用相同的spark集群。 我希望每个应用程序都能获得固定数量的内核,除非其余的clutser待定。 在这种情况下,我希望正在运行的应用程序将获得核心总量,直到新应用程序到达...
我必须为了这个吗?