每个服务执行者的Spark限制数量

时间:2019-10-18 02:25:25

标签: apache-spark spark-streaming

我们正在使用Spark流(java)进行实时计算。部署有6个节点Spark集群(配置设置是针对跨节点的200个执行程序)。

当前,有一项服务正在Rabbitmq队列中发布事件。现在,我们计划再添加两项服务。如果我为每个队列创建火花接收器,是否有可能限制在负载情况下可以为一项服务提供服务的执行程序的最大数量(例如,最大限制为50%。因此,在上述情况下,最大为100的执行程序可以为从服务/接收的流提供服务接收器)?

谢谢 Shishir

1 个答案:

答案 0 :(得分:0)

Explore下面的火花作业属性将解决您的问题。

用于最小资源(spark.dynamicAllocation.minExecutors)

获取最大资源(spark.dynamicAllocation.maxExecutors)