使用Spark Framework创建maven项目

时间:2017-02-19 14:32:51

标签: scala maven apache-spark

我目前是Scala的新开发人员。我目前正在尝试使用标准的IDE for Eclipse Juno设置一个spark应用程序。

我创建了一个scala应用程序,然后将scala库设置为2.10.6,以便能够使用spark框架。然后,将其转换为Maven项目。我之后修改了Pom.xml以添加以下内容的依赖项:

<dependency>
    <groupId>org.apache.spark</groupId>
    <artifactId>spark-core_2.10</artifactId>
    <version>2.1.0</version>
</dependency>*

intellisense可以正确检测导入的包。我可以在没有任何给定错误的情况下输入语法。然后我运行包含简单的apache spark代码的主类,并在运行它时,我收到一个错误,如下所示:

错误:无法找到或加载主类

以下是我pom.xml的设置:

0 个答案:

没有答案