我正在使用Spark 1.0.0并尝试使用Spark Shell(Scala)。但我收到以下错误,请有人为我阅读该消息,然后告诉我它的内容
Using Scala version 2.10.4 (Java HotSpot(TM) 64-Bit Server VM, Java 1.7.0_55)
Type in expressions to have them evaluated.
Type :help for more information.
Spark context available as sc.
scala> val text = sc.textfile("/user/cloudera/test1")
<console>:12: error: value textfile is not a member of org.apache.spark.SparkContext
val text = sc.textfile("/user/cloudera/test1")
答案 0 :(得分:4)
您可以使用Spark Context,只需使用正确的方法即可。 textfile
不是SparkContext的成员,它在消息中说明。我想你想要textFile
:)