我一直试图在Eclipse的Spark的Scala代码下运行此代码::
package org.spark.learning
import org.apache.spark.SparkConf
import org.apache.spark.SparkContext
object Demo {
def main(args: Array[String]): Unit = {
val conf = new SparkConf()
conf.set("spark.master","local")
conf.set("spark.app.name","DemoSparkApp")
val sc = new SparkContext(conf)
val r1 = sc.range(1,100)
r1.collect.foreach(println)
sc.stop()
}
}
运行它时,我遇到此构建错误::
错误:在org.spark.learning.Demo类中找不到主要方法,请将该主要方法定义为: 公共静态void main(String [] args) 或JavaFX应用程序类必须扩展javafx.application.Application
我还要确保它作为scala应用程序运行。
任何对此的帮助将不胜感激! 预先感谢!