spark-network-common_2.11 / 1.6.2的依赖性问题

时间:2017-03-09 21:22:32

标签: apache-spark

我在STS中添加以下依赖项时出现以下错误我收到错误

   <dependency>
 <groupId>org.apache.spark</groupId>
 <artifactId>spark-core_2.11</artifactId>
 <version>1.6.2</version>
 </dependency>

错误是

存档所需的库:       &#39; C:/Users/Ravinder/.m2/repository/org/apache/spark/spark-network-common_2.11/1.6.2/spark-network-common_2.11-1.6.2.jar'        在项目中,scalaDemo2&#39;无法读取或不是有效的ZIP文件scalaDemo2构建路径构建路径问题

STS scala库中的

指向2.11.8

spark看看scala版本,在Spark安装中我没有看到scala版本配置。请指教

1 个答案:

答案 0 :(得分:1)

您遇到的错误是库损坏,而不是版本不匹配。

Spark安装将与Scala 2.10或2.11绑定。库在2.11内是二进制兼容的,因此无论你是2.11.8还是2.11.6都无关紧要。

我建议删除C:/Users/Ravinder/.m2/repository/org/apache/spark/spark-network-common_2.11下的所有内容,看看当你再次尝试时它会缓存一个正确的文件。