我在hdp中使用spark 1.5.2,hadoop的版本是2.7.1.2.3.4.7-4。当我尝试在maven pom文件中添加jar这样的
<dependency>
<groupId>org.apache.spark</groupId>
<artifactId>spark-core_2.10</artifactId>
<version>1.5.2</version>
</dependency>
我不知道在哪里可以找到spark-core的版本。有2.11和2.10。 任何帮助表示赞赏。
答案 0 :(得分:5)
您提到的那个版本表示您希望将哪个版本的Scala用于spark-core。
您需要检查群集上的Scala版本,以了解它是否需要2.10或2.11。