Spark / ScalaIDE - 错误:无法找到或加载主类

时间:2017-03-15 22:36:19

标签: scala apache-spark scala-ide

在Scala IDE中创建了一个spark程序。当我尝试执行

时抛出错误
package sidSparkPackage

import org.apache.spark.SparkConf
import org.apache.spark.SparkContext

object firstSparkProgram {
def main(args: Array[String]): Unit = {

val conf = new SparkConf().setMaster("local").setAppName("My First Spark Program")

val sc = new SparkContext(conf)

val rdd = sc.parallelize(List(1,2,3))

//rdd.first()

println("Executed Successfully!!!!")    
 }
}

错误:

Error: Could not find or load main class 

Here is the screenshot

1 个答案:

答案 0 :(得分:0)

我想这与你的构建配置有关。没有进一步的细节,很难说清楚。

尝试在项目构建配置中指定主类。