标签: apache-spark apache-spark-sql apache-spark-dataset
我知道Spark中的DataFrame支持动态分区。
一些我了解到的帖子: https://medium.com/@anuvrat/writing-into-dynamic-partitions-using-spark-2e2b818a007a
我的问题是:
** Spark中的数据集是否支持动态分区? **或是转换为数据框并用于编写动态分区的替代方法。