标签: apache-spark job-scheduling
我想知道你目前如何运行两个工作,目前我尝试运行火花工作,而且它只是赢得了不止一个工作,另一个工作状态将被接受但直到现在才运行正在运行的作业失败/完成。
我尝试使用conf.set("spark.scheduler.mode", "FAIR”)以便它不会执行FIFO,但仍然无法按照我认为的方式工作
conf.set("spark.scheduler.mode", "FAIR”)