SparkContex的函数makeRDD?

时间:2016-10-26 02:16:42

标签: apache-spark spark-streaming

val conf = new SparkConf()。setAppName(" TestAPP")

val sc = new SparkContext(conf)

当我使用sc.makeRDD(Seq(1,2,3,4,5,6,7,8,9,10))时,会出现以下提示。

enter image description here

我想知道为什么会这样。并且如何正确使用makeRDD。

2 个答案:

答案 0 :(得分:1)

我尝试了同样的工作。

val spark = SparkSession
    .builder()
    .appName("Spark example")
    .master("local")
    .getOrCreate()
  val seqExam = Seq(1,2,3,4,5,6,7,8,9,10)
  val employeeRDD = spark.sparkContext.makeRDD(seqExam)
  employeeRDD.foreach { x => println(x) }

答案 1 :(得分:0)

您可以通过其他方式执行此操作,即使用#include <stdio.h> #include <stdlib.h> void malloc_and_check(int **var) { int *var1; if(!(var1 = (int*)malloc(sizeof(int)))) { fprintf(stderr, "Insufficient Memory\n"); exit(EXIT_FAILURE); } else *var = var1; } int main(int argc, const char * argv[]) { int *pi; malloc_and_check(&pi); *pi = 5; printf("%d", *pi); free(pi); }

parallelize