是否可以在Spark中同时将bucketBy和partitionBy定义到Dataframe Writer?

时间:2019-05-28 09:49:58

标签: apache-spark hive apache-spark-sql databricks

我使用spark 2.4.x将数据写入拼花文件格式。 在将数据集写入镶木地板文件夹时,是否可以使用DataFrameWiter的两个功能,即bucketBy和partitionBy?

如果是,它将产生什么影响?

0 个答案:

没有答案