对象映射不是包org.apache.spark.rdd的成员

时间:2017-05-25 06:59:39

标签: scala apache-spark dependencies rdd

我执行了spark-shell并执行了以下说明:

import org.apache.spark.SparkContext
import org.apache.spark.rdd.RDD

def ejemMap(sc: SparkContext) {
   val v1 = sc.parallelize(List(1, 2, 3))
   val v2 = rdd.map(_ * 2)
   v2.foreach(line => println("ejemMap line=" + line))}

但是我收到以下错误:

  

:37:错误:对象图不是包的成员   org.apache.spark.rdd

我感谢任何帮助

1 个答案:

答案 0 :(得分:0)

您有一个拼写错误,v1应该是map

val v2 = v1.map(_ * 2)

rdd指的是org.apache.spark下的包。