标签: python apache-spark pyspark pyspark-sql
我有一个Spark SQL DataFrame,并且有一个函数需要应用于partition_col相同的所有行。
partition_col
到目前为止,我知道我可以将DataFrame转换为RDD并在那里应用mapPartitions。我遇到的问题是可靠地确保在mapPartitions运行时所有符合条件的实例都在同一个分区中。
mapPartitions
我已经尝试了df.repartition(partition_col).rdd.mapPartitions(...),但这留下了一些空的分区,所以我不相信它正在做我想要的。
df.repartition(partition_col).rdd.mapPartitions(...)