如何强制工作节点数

时间:2019-05-14 02:00:57

标签: apache-spark

我正在使用spark-submit运行spark流作业。我有一个主节点和三个工作节点。如何强制将作业拆分为三个并由所有三个工作程序节点执行。现在它只能由一个工作节点处理

0 个答案:

没有答案