激发更多任务或更多工作

时间:2016-06-13 15:57:32

标签: apache-spark parallel-processing bigdata

我正在构建一个Spark应用程序,它需要运行多个Spark Jobs,而不是运行较少的Jobs而是使用更多任务。 基本上,我的应用程序运行由1个任务组成的N个作业,而不是运行 1由N个分区(任务)组成的工作。

此设计如何影响整体效果?

0 个答案:

没有答案