标签: apache-spark hive apache-spark-sql databricks
我使用spark 2.4.x将数据写入拼花文件格式。 在将数据集写入镶木地板文件夹时,是否可以使用DataFrameWiter的两个功能,即bucketBy和partitionBy?
如果是,它将产生什么影响?