我有一个需要在我的spark应用程序中单独定义的map函数
public final class App {
private static final Pattern SPACE = Pattern.compile(" ");
public static void main(String[] args) throws Exception {
SparkSession spark = SparkSession
.builder()
.master("local[*]")
.appName("JavaWordCount")
.getOrCreate()
;
System.out.println("hello");
JavaSparkContext jsc = new JavaSparkContext(spark.sparkContext());
List<String> data = new ArrayList<>(5);
data.add("test.jpg");
JavaRDD<String> rdd = jsc.parallelize(data);
rdd.map(tf_func);
spark.stop();
}
public static String tf_func(){
return "Hello";
}
}
上述代码无法识别定义的函数。
答案 0 :(得分:0)