Spark Job服务器

时间:2017-05-02 13:14:19

标签: spark-jobserver

我们正在使用Spark版本2.0.2开发Qubole。

我们有一个多步骤过程,其中所有中间步骤都将其输出写入HDFS,稍后此输出将用于报告层。

根据我们的用例,我们希望避免写入HDFS并将所有中间输出保存为spark中的临时表,并直接写入最终的报告层输出。

对于此实现,我们希望使用Qubole提供的作业服务器,但是当我们尝试在作业服务器上触发多个查询时,作业服务器会按顺序运行我的作业。

我在Databricks集群中也观察到了相同的行为。

我们使用的集群是30节点,r4.2xlarge。

有没有人有使用作业服务器运行多个作业的经验?

社区的帮助将不胜感激!

0 个答案:

没有答案