我在Spark中使用了Scala,尝试将文件保存在HDFS文件中,但出现错误。
我尝试过rdd.saveAsTextFile("path"); sc.saveAsTextFile("pathe");
saveAsTextFile("path")
scala> inputJPG.map(x=>x.split("")).map(array=>array(0)).sc.saveAsTextFile("/loudacre/iplist")
<console>:28: error: value sc is not a member of Array[String]
inputJPG.map(x=>x.split("")).map(array=>array(0)).sc.saveAsTextFile("/loudacre/iplist")
答案 0 :(得分:0)
我是一名新学生,仍在学习Scala,因此对RDD和Scala功能不熟悉。
转向我的问题。我发现那是因为我有
val xx=data.collect()
之前不是RDD,所以我无法在Spark中执行data.saveAsTextFile。
所以我移动了.collect()
函数=> val xx=data
然后data.savaAsTextFile(“ path”)起作用。