Eclipse Scala IDE中针对spark项目的Maven设置

时间:2017-08-10 09:37:33

标签: eclipse scala maven

我使用Eclipse for Scala IDE开发Spark应用程序。 我正在使用Maven项目,但当我尝试导入sparkcon 时:

import org.apache.spark.SparkConf 

我有错误:

  

对象apache不是包org的成员你可以帮我设置   火花依赖

2 个答案:

答案 0 :(得分:2)

您需要将Spark依赖项放在pom.xml文件中。截至目前,最新版本的Spark可以通过以下方式获得:

<dependency>
    <groupId>org.apache.spark</groupId>
    <artifactId>spark-core_2.10</artifactId>
    <version>2.2.0</version>
</dependency>

在pom.xml中的依赖项中。

答案 1 :(得分:0)