标签: apache-spark apache-spark-sql
我刚开始使用Apache spark。当我尝试RDD文件时,我收到错误: 值Textfile不是org.apache.spark.SparkContext的成员。
这是我输入的内容:
val data1 = sc.textfile(“README.md”)
我有带有Spark的AmazonEMR。
答案 0 :(得分:2)
好的只是发现它是敏感的。需要是textFile(带F Cap)。 我希望这会对某人有所帮助。