我执行了spark-shell
并执行了以下说明:
import org.apache.spark.SparkContext
import org.apache.spark.rdd.RDD
def ejemMap(sc: SparkContext) {
val v1 = sc.parallelize(List(1, 2, 3))
val v2 = rdd.map(_ * 2)
v2.foreach(line => println("ejemMap line=" + line))}
但是我收到以下错误:
:37:错误:对象图不是包的成员 org.apache.spark.rdd
我感谢任何帮助
答案 0 :(得分:0)
您有一个拼写错误,v1
应该是map
:
val v2 = v1.map(_ * 2)
rdd
指的是org.apache.spark
下的包。