无法理解Spark Shell(Scala)中的错误消息

时间:2014-08-03 09:57:01

标签: apache-spark

我正在使用Spark 1.0.0并尝试使用Spark Shell(Scala)。但我收到以下错误,请有人为我阅读该消息,然后告诉我它的内容

Using Scala version 2.10.4 (Java HotSpot(TM) 64-Bit Server VM, Java 1.7.0_55)
Type in expressions to have them evaluated.
Type :help for more information.
Spark context available as sc.

scala> val text = sc.textfile("/user/cloudera/test1")
<console>:12: error: value textfile is not a member of org.apache.spark.SparkContext
val text = sc.textfile("/user/cloudera/test1")

1 个答案:

答案 0 :(得分:4)

您可以使用Spark Context,只需使用正确的方法即可。 textfile不是SparkContext的成员,它在消息中说明。我想你想要textFile:)