标签: scala apache-spark spark-dataframe rdd
我正在寻找我的spark应用程序的每个动作来独立评估这样的函数。
var count=0 def seqInt : Seq[Int] = { count=count+1 Seq(count) } val rdd = sc.parallelize(seqInt) rdd.take(1) #Should return 1 rdd.take(1) #Should return 2
有什么方法可以为每个被调用的动作评估函数?