标签: apache-spark parallel-processing bigdata
我正在构建一个Spark应用程序,它需要运行多个Spark Jobs,而不是运行较少的Jobs而是使用更多任务。 基本上,我的应用程序运行由1个任务组成的N个作业,而不是运行 1由N个分区(任务)组成的工作。
此设计如何影响整体效果?