Maven spark依赖性错误:对象spark不是包org.apache的成员

时间:2015-12-15 19:50:45

标签: scala maven intellij-idea apache-spark

我正在尝试使用IntelliJ中的maven将Spark导入我的scala项目。依赖是

    <dependency>
        <groupId>org.apache.spark</groupId>
        <artifactId>spark-core_2.10</artifactId>
        <version>1.5.0</version>
    </dependency>

但我收到此错误

Error:(4, 19) object spark is not a member of package org.apache
import org.apache.spark.Partitioner
                  ^

0 个答案:

没有答案