标签: apache-spark spark-jobserver
我从github克隆了spark job服务器并运行了sbt和sbt job-server-tests / package并重新启动。我运行了WordCountExample。我的问题是: 1.作业服务器在哪里寻找基础Spark jar来运行作业?或者它有自己的版本。 2.我在我的机器上运行Spark 2.0,我也运行了作业服务器.github文档说支持的Spark版本是1.6.2。任何想法,如果我可以使用2.0(当然我自己的风险)。有人试过吗?
答案 0 :(得分:0)