为什么Spark集群无法在多个工作程序节点中处理?

时间:2019-12-02 00:38:24

标签: apache-spark

我创建了一个Spark DataFrame,它显示了很多分区。然后我用变压器进行预处理。然后使用spark MLlib使用njob = -1运行超参数调整,为什么整个作业仅在1个执行程序中执行,而不分散在多个工作程序节点上?

0 个答案:

没有答案