我怎么知道spark-core版本?

时间:2016-08-05 17:43:45

标签: hadoop apache-spark hortonworks-data-platform

我在hdp中使用spark 1.5.2,hadoop的版本是2.7.1.2.3.4.7-4。当我尝试在maven pom文件中添加jar这样的

<dependency>
    <groupId>org.apache.spark</groupId>
    <artifactId>spark-core_2.10</artifactId>
    <version>1.5.2</version>
</dependency>

我不知道在哪里可以找到spark-core的版本。有2.11和2.10。 任何帮助表示赞赏。

1 个答案:

答案 0 :(得分:5)

您提到的那个版本表示您希望将哪个版本的Scala用于spark-core。

您需要检查群集上的Scala版本,以了解它是否需要2.10或2.11。