spark执行核心分配给任务

时间:2017-03-30 10:18:56

标签: apache-spark apache-spark-sql spark-streaming execution

通常,系统中的每个核心都在spark submit中执行一项任务。如何通过spark提交多个任务共享一个核心?意味着我在spark提交中执行10个Threads。但是我可以一次执行4个任务,4个任务完成后4个任务完成。 如何通过spark提交一次开始执行10个任务?

0 个答案:

没有答案