Spark - 每个工人限制为1个任务

时间:2016-01-01 21:43:03

标签: apache-spark

有没有办法限制Spark使用Spark的独立集群管理器在每个工作人员上只启动1个任务?我想运行一个访问外部资源的工作,并有办法对其进行速率限制。

enter image description here

0 个答案:

没有答案