添加Spark函数时,Eclipse不会检测到Java main()函数

时间:2019-01-21 09:42:44

标签: java eclipse apache-spark

我正在使用Java测试Spark,并且在使用Eclipse运行程序时遇到一些问题。

测试代码如下:

package projet1;


import org.apache.log4j.Level;
import org.apache.log4j.Logger;
import org.apache.spark.SparkConf;
import org.apache.spark.api.java.JavaRDD;
import org.apache.spark.api.java.JavaSparkContext;

public class projet1 {

    public static void main(String[] args) {
    System.out.println("Hello world");
    System.setProperty("hadoop.home.dir", "/home/user1/Spark_Projects");
    Logger.getLogger("org.apache").setLevel(Level.WARN);

    SparkConf conf = new SparkConf().setAppName("SiravPg").setMaster("local[*]");
    JavaSparkContext sc = new JavaSparkContext(conf);
    JavaRDD<String> myRDD = sc.textFile("src/main/ressources/data.txt")
    sc.close();
    }

}

运行此代码时,eclipse似乎无法检测到我的main()函数,并显示一个新窗口要求我选择Java应用程序

Java Application

PS:“ System.out.println(“ H​​ello world”);“运行正常。

2 个答案:

答案 0 :(得分:0)

此问题的解决方案是从显示的列表中选择要运行的类,在我的情况下,我选择project1并单击OK按钮。

答案 1 :(得分:-1)

只需使用public static void main(String [] args)代替public static void final main(String [] args)。