更新Apache Spark的策略

时间:2016-09-19 12:05:40

标签: apache-spark

我想知道我安装的Spark的版本如何取决于我使用的spark-core(spark-sql,...)库的版本。

例如:我在Spark 2中看到,建议使用DataFrame API(来自spark.ml)而不是RDD(来自spark.mllib)。我是否必须更新已安装的Spark版本才能使用它,或者它是否足以使用新库?

如何将库依赖于已安装的Spark版本?哪个库版本适用于spark安装程序?

很抱歉,但这让我感到困惑。

1 个答案:

答案 0 :(得分:2)

对于那些同样关注的人: 不同的库告诉你用于编译它的scala版本:

  • spark-core_2.10 - > Scala 2.10
  • spark-core_2.11 - > Scala 2.11

库的不同版本必须与已安装的Spark版本匹配。