标签: scala apache-spark amazon-s3
当我阅读spark.read.csv时...它应该创建一个包含367个分区的数据帧。但这不会发生!它使用 367个任务按预期阅读,然而创建一个只有12个分区的数据框 !!
val y_cdc = spark.read.csv("s3n..........")
y_cdc.rdd.toDebugString
这是怎么回事?
答案 0 :(得分:-1)