val conf = new SparkConf()。setAppName(" TestAPP")
val sc = new SparkContext(conf)
当我使用sc.makeRDD(Seq(1,2,3,4,5,6,7,8,9,10))时,会出现以下提示。
我想知道为什么会这样。并且如何正确使用makeRDD。
答案 0 :(得分:1)
我尝试了同样的工作。
val spark = SparkSession
.builder()
.appName("Spark example")
.master("local")
.getOrCreate()
val seqExam = Seq(1,2,3,4,5,6,7,8,9,10)
val employeeRDD = spark.sparkContext.makeRDD(seqExam)
employeeRDD.foreach { x => println(x) }
答案 1 :(得分:0)
您可以通过其他方式执行此操作,即使用#include <stdio.h>
#include <stdlib.h>
void malloc_and_check(int **var)
{
int *var1;
if(!(var1 = (int*)malloc(sizeof(int))))
{
fprintf(stderr, "Insufficient Memory\n");
exit(EXIT_FAILURE);
}
else
*var = var1;
}
int main(int argc, const char * argv[])
{
int *pi;
malloc_and_check(&pi);
*pi = 5;
printf("%d", *pi);
free(pi);
}
:
parallelize