Spark Job Scheduling同时运行2个作业

时间:2017-02-07 17:37:04

标签: apache-spark job-scheduling

我想知道你目前如何运行两个工作,目前我尝试运行火花工作,而且它只是赢得了不止一个工作,另一个工作状态将被接受但直到现在才运行正在运行的作业失败/完成。

我尝试使用conf.set("spark.scheduler.mode", "FAIR”)以便它不会执行FIFO,但仍然无法按照我认为的方式工作

0 个答案:

没有答案