我使用Spark 2.1.0。
为什么以下一个操作产生2个相同的作业(每个作业中的DAG相同)?它不应该只产生1吗?这里有代码:
val path = "/usr/lib/spark/examples/src/main/resources/people.txt"
val peopleDF = spark.
sparkContext.
textFile(path, 4).
map(_.split(",")).
map(attr => Person(attr(0), attr(1).trim.toInt)).
toDF
peopleDF.show()
在检查发生了什么时,我在图形界面中看到了什么?我想它与所有数据帧转换有关。