在Scala IDE中创建了一个spark程序。当我尝试执行
时抛出错误package sidSparkPackage
import org.apache.spark.SparkConf
import org.apache.spark.SparkContext
object firstSparkProgram {
def main(args: Array[String]): Unit = {
val conf = new SparkConf().setMaster("local").setAppName("My First Spark Program")
val sc = new SparkContext(conf)
val rdd = sc.parallelize(List(1,2,3))
//rdd.first()
println("Executed Successfully!!!!")
}
}
错误:
Error: Could not find or load main class
答案 0 :(得分:0)
我想这与你的构建配置有关。没有进一步的细节,很难说清楚。
尝试在项目构建配置中指定主类。